本サイトに掲載・リンクされた外部執筆の記事の見解は、必ずしもLexisNexis Legal & Professionalの公式見解を反映するものではありません。 また、リンクされている記事は、英語で書かれている場合ががあります...
本サイトに掲載・リンクされている外部著者によるコンテンツは、必ずしもLexisNexis Legal & Professionalの見解を反映するものではありません。 また、以下記事のリンク先の記事は...
「法」を調べる場合、多くの人がまずは「法律」を思い浮かべe-Gov 法令検索や六法全書を見にいくのではないでしょうか。しかし、企業活動をめぐる規律は、法律の条文だけで完結するとは限りません。判例や、行政機関が出す通達...
AI 活用の波に乗る企業が直面する「法の死角」 ―― 田中が動いた。 LN製造株式会社のAI規制対応とMLex導入事例 「知らなかった」が許されない時代。法改正の頻度と複雑さが増す中、LN製造株式会社のコンプライアンス担当...
年間ワークフローに組み込み、不正リスクを可視化して、打ち手の特定へつなげる実践的アプローチ なぜ今、コンプライアンスサーベイが重要なのか コンプライアンス体制は、規程や研修を整えるだけでは十分とは言えません...
本サイトに掲載・リンクされた外部執筆の記事の見解は、必ずしもLexisNexis Legal & Professionalの公式見解を反映するものではありません。
また、リンクされている記事は、英語で書かれている場合ががあります。
By Greg Dickason, Chief Technology Officer, LexisNexis
法律専門家から、よく次のような実務的な問い合わせを受けることがあります。大規模言語モデル(LLM) がこれほど高性能であるならば、なぜリーガルAIでは今でもキュレーションされたコンテンツに依存し、そのコンテンツを提示することがこれほど重要なのでしょうか。
その答えの鍵を握るのが、リーガルAIにおけるコンテキストウィンドウです。モデルが一度に処理できるテキスト量には限りがあります。あまりにも情報が多いと、モデルは本当に重要な要素を見落としかねません。反対に、情報が少なすぎると、法的権威を判断する上で不可欠な事実関係や手続き状況を見落としてしまうおそれがあります。
これは単なる表面的な問題ではありません。
『読みやすいだけの回答』と、『実際の提出書面や法廷でも通用する回答』との差を生む、本質的な問題です。
関連投稿:ヒューマン・イン・ザ・ループ:信頼できるリーガルAIを支える人々
法の世界には、多くの矛盾し得る情報が存在します。リーガルAIにとって、判決文中の主張と裁判所の判断とを峻別すること、傍論と拘束力ある判示を見極めたり、特定の管轄や争点においてどの判決がより重みを持つかを説明することは容易なことではありません。
しかしながら、弁護士はこうした判断を日常的に直感的に行なっています。法的権威を見極め、重要な事実に着目し、依頼者の立場や法廷・手続きに即して論理を組み立てていきます。こういったニュアンスこそが重要です。正しい法的権威は、正しい主張に、適切な裁判所で、適切な段階に、正しい目的のために用いられなければなりません。事実は単なる事実ではありません。裁判官が尊重する先例に裏付けられた事実でなければなりません。
だからこそコンテンツは重要です。そして、適切なタイミングで適切な情報を提示することは、それ以上に重要なのです。
関連投稿:Shepard’s®引証バリデーション強化により、LexisNexis®がリーガルAIの信頼を築く方法(英語)
大規模言語モデルには「コンテキストウィンドウ」と呼ばれる作業記憶があります。入力が長くなると性能が低下することがあり、また、長いプロンプトの中間に置かれた情報は、存在していても見落とされることがあります。この現象は「Lost in the middle」として研究されています。
また、近年ではトークン数の増加に伴い、入力長によってモデルの信頼性が揺らぐ「context rot」という現象も報告されています。
コンテキストウィンドウが拡張されれば問題が解決されるかというと、そう単純ではありません。検索によって余分な文書が取り込まれると、モデルが最後に見た情報を過大評価したり、当該論点にとって関係がないのにもかかわらず、説得力のある記述を評価してしまう可能性があります「法律実務におけるAIの限界」。
つまり、単にテキスト量が多ければ多いほど良いわけではありません。リーガルAIには、適切な量で、適切に構造化された、管轄、争点、手続状況に即して厳密に絞り込まれた情報が必要です。
コンテキストを適切に管理する一つの方法は、深く結び付いたリーガルデータを構築することです。引用情報、法的権威、判例の扱い、手続段階、管轄、裁判官、争点、そしてそれらの関係性を体系化し、継続的に更新していく必要があります。
この作業に終わりはありません。新たな判決が出れば、法的主張の組み立て方が変わり、先例の読み方が変わり、裁判所が何を説得的とみなすかも変わり得ます。したがって、コンテキストの選定もまた、その変化に追随し続けなければなりません。
これは単なる汎用モデルを利用するだけことや、APIでは実現できません。一時情報の取り込み、正規化、リンク付け、検証、時系列での追跡、事実と争点のマッピング、そして特定の質問に対して、関連する情報のみを提示する、といった継続的な編集体制とエンジニアリング上の仕組みが不可欠です。
関連投稿:Lexis+ AIが信頼できる連結リーガル引用を提供する方法(英語)
適切なコンテキストは、単なるリサーチを超えて、裁判所ごとに異なる手続ルールや厳格な期限の下で弁護士が踏むべきワークフロー全体を支えます。
たとえば、却下申立を考えてみましょう。まず実体的な主張を支える法的権威が必要ですが、同時に、裁判所がどのような手順で審理するのか、適用基準、ローカルルール、ページ制限、必要書類、提出期限なども把握する必要があります。これらの制約のいずれかを見落とすと、法的議論自体がもっともらしく見えても、実務的には使いものにならない可能性があります。
こうした情報の多くは、完全で最新な実務活用可能な形ではオープンウェブ上には存在していません。このような情報の構築と維持には、長期的な投資が必要です。
リーガルAIの高品質なコンテキスト管理には、次のような要素が必要です。
ソースの忠実性:すべての引用が権威ある情報源に確実に結び付いていること。
構造化された関係性:法的権威、判例の扱い、手続段階、管轄が推測ではなく体系的に整理されていること。
関連性フィルタリング:単に『関連がある』というだけでなく、『事実を左右する情報(拘束力を持つ情報)』に絞り込まれていること。
継続的更新:新たな判決や法改正に応じてリンクとメタデータが更新されていること。
適切なプロンプト設計:モデルが必要な情報のみを過不足なく参照できるよう制御されていること。
リーガルAIにおけるコンテキストウィンドウは、現実的な制約です。入力が長すぎたり、焦点が適切に絞られていなかったりすると、モデルは法的権威を見落とし、重要事項を誤解し、先例と事実との関連付けに失敗します。
だからこそ、出力品質はコンテンツの質と構造(権威ある情報源、管轄の特定、引用に基づく関係性など)に依存します。これらが、質問に適した範囲で提供されているかが重要です。
リーガルAIを評価する際には、
という3点を基準に評価してください。
Lexis+ AI がどのように役立つか詳しく知るには、今すぐデモをご予約ください。