By Serena Wellen, VP Product Management, LexisNexis * 本サイトにリンクまたは掲載されている外部執筆者による見解は、LexisNexis Legal...
企業を取り巻く環境が急速に変化し、法務部門にはリスクマネジメントの“守り”に加え、事業を支える“攻め”の視点も求められています。 丸文株式会社では、現場に寄り添いながら全社的な法令遵守体制を強化し...
* 本サイトにリンクまたは掲載されている外部作成資料に記載された見解は、LexisNexis Legal & Professionalの見解を必ずしも反映するものではありません。 今月初めにローンチされた...
「法令を知らなかった」は通用しない ―法改正の“見逃し”が企業リスクに直結する今、田中が動いた。 LN製造株式会社のコンプライアンス強化とASONE導入事例 「知らなかった」が許されない時代。法改正の頻度と複雑さが増す中...
日本企業がデジタルトランスフォーメーションを加速させる中、法務部門は生成AIの魅力と、規制面の曖昧さや企業文化の慎重度合いという制約の狭間で板挟みとなっています。 ChatGPTやGeminiなどの生成...
By Serena Wellen, VP Product Management, LexisNexis
* 本サイトにリンクまたは掲載されている外部執筆者による見解は、LexisNexis Legal & Professionalの見解を必ずしも反映するものではありません。
法律実務に人工知能(AI)が浸透するにつれ、ツールを利用するすべての実務家は「これは信頼できるのか?」という重大な問いに直面します。申立書の起案、判例の要約、関連する契約条項の特定などをAIに委ねる際、その出力に不確実性が残るリスクはあまりに高いからです。
このため、2025年のABA(American Bar Association)による『Law Technology Today』レポートでは、弁護士がAIに関する重要な懸念事項として、リーガルAIツールの出力結果に対する信頼性や、AIと実務の倫理的整合性に関する点を挙げたことは驚くことではありません。
LexisNexisは50年以上にわたり、法律専門家向けに製品やツールを開発・提供してきました。当社は、AIが生成するリーガルコンテンツの信頼性を確保することはアルゴリズムのみに任せるべきではないと認識しています。だからこそ、当社がリリースするあらゆるAIツールの背後には、コンテンツの正確性と品質を評価することに専念する、法律専門家からなる専門チームが存在します。
今回は、LexisNexisの「ヒューマン・イン・ザ・ループ」を体現するData Discovery and Enrichment team(データの発見・強化チーム)をご紹介します。このチームは、最先端のAI技術と法律実務家が求める厳格な基準との間を繋ぐ重要な架け橋となっています。
Data Discovery and Enrichment teamとは?
Data Discovery and Enrichment teamは、AIの技術的能力と法律実務の両方を熟知する法律専門家およびリーガルリサーチのスペシャリストで構成され、300名以上の法学博士(J.D.)を擁するこの専門家チームをは、リーガルリサーチ、分析、品質評価における長年の経験を活かして、当社のAIが出力回答の正確性と品質を評価しています。
チームのメンバーの多くは、各自の専門領域に近いAI出力コンテンツの評価を担当していますが、他の専門チームとも連携してAIによるリーガルコンテンツ生成がもたらす複雑な課題に取り組んでいます。 彼らは単にAIの能力を理解しているだけでなく、弁護士がAIに求める役割を理解し、AIの出力結果がそのニーズを満たしているかも評価するための法的専門知識を有しています。
このチームは、法的知識と技術開発の両軸で活動し、実務に携わる法律専門家と同じ批判的な視点をもって、専門的判断に基づいてAIの出力結果を評価しています。AIが膨大な情報を驚異的なスピードで処理できる一方で、法律実務に必要な専門的判断力、文脈理解、倫理的責任が欠けているため、このチームの役割が不可欠です。
人間がAIモデルの構築と運用に積極的に関与し、システムの性能・精度・倫理的境界を形成するためのフィードバックとガイダンスを提供するガードレールとして、「ヒューマン・イン・ザ・ループ」体制は機能してます。これにより、AIの能力を活用しつつ、法律専門家としての判断を保持しています。
品質評価の5つの重点領域
Data Discovery and Enrichment teamは、法務実務特有のリスクや要件に対応するため、AIの出力結果を以下5つの観点から評価します。
1. 正確性
信頼の基盤を成すものです。チームメンバーは、AIの回答が法的原則、判例、法令の文言、手続規則を正しく反映していることを検証します。引用文献を原典と照合し、主張が適切に裏付けられていること、AIが法的根拠を誤認していないことを確認します。この次元では根本的な問いを優先します。:この情報は正しいか?
2. 網羅生
AIの出力結果が不完全な情報を提示し、法律専門家を誤導しないようにします。法的問題には、複数の視点、相反する判例、微妙な差異を伴うことが多々あります。チームは、AI生成コンテンツが関連する角度、代替解釈、重要な限定事項を考慮しているかを評価します。例えば、回答そのものは正しくても、例外的なケースや相反する判例に触れていなければ、それは不完全な情報と言わざるを得ません。
3. ハルシネーション
AI生成リーガルコンテンツにおける最も深刻なリスクの一つです。チームは、存在しない架空の法的根拠を生成していないか徹底的に探し出します。法曹界が判例に依存する性質と、虚偽の引用がもたらす結果を考慮し、厳格な検証を行なっています。全ての引用は検証可能でなければならず、全ての法的原則は信用できる情報源に基づく必要があります。
4. 有用性
AIの出力が実際に法律専門家の目標達成に役立つかどうかを評価します。回答は正確かつ網羅的であっても、実務で適用しにくい構造になっていては意味がありません。チームは、明瞭さ、構成、ユーザーからの質問へとの関連性、そして弁護士のワークフローに沿っているか評価します。例えば、質問の意図に正しく回答できているか? 弁護士のワークフローに組み込める形式になっているか?
5. バイアスの精査
問題のある視点を反映、助長させる出力を防ぎます。チームはAI生成コンテンツが不適切な偏見を示していないか、関連する視点を排除していないか、攻撃的な内容を含んでいないかを確認します。公平性と中立性が職業上の義務であるリーガルにおいて特に重要であるため、このプロセスは重視されています。
チームがこれらの重要項目を徹底することで、リーガルAIがもたらす利便性と、倫理基準と専門家としての規律を守るためのセーフガードという役割との最適なバランスを保つことが可能になります。
LexisNexisのAIソリューションを体験してください
Data Discovery and Enrichment teamは、LexisNexisのAI製品開発ワークフロー全体を通じて人間が監視し続けるという取り組みを体現しています。これらの法律専門家は、技術的能力と顧客に提供されるコンテンツの間のギャップを埋める存在です。彼らはAIの信頼性のセーフガードとして、訓練を受けた法律専門家にしか提供できない検証、精緻化、品質保証を提供しています。
LexisNexisのAIソリューションを通じて、法的テクノロジー分野における責任ある安全なAIの基準をいかに確立しているか、ぜひ詳細をご覧ください。
*リンク先のページは英文のページとなります。
*この記事は、2026年1月に掲載された米国の記事を翻訳したものです。ブログ原文記事 (英語): Humans in the Loop: The People Powering Trusted Legal AI