米国でOpenAI社が「無免許での法律業務(Unauthorized Practice of Law)」を行ったとして提訴された件は、日本企業にとっても対岸の火事ではありません。生成AIの業務適用が進む中、特に法務・コンプライアンス領域における「AIの回答」をどう位置づけるか、日本の弁護士法(非弁行為)との兼ね合いを含めた実務的な整理とガバナンス構築が急務となっています。
米国での提訴が示唆する「AIと専門資格」の緊張関係
米国において、OpenAI社が「米国のライセンスを持たずに法律業務を行った」として新たな訴訟に直面しています。具体的には、障害給付の請求者がChatGPTを利用して法的文書を作成・提出しようとした際に、適切な法的助言としての要件を満たしていなかった、あるいは誤った手続きを助長したという文脈で、AIによる「専門業務の代行」が問われています。
このニュースは単なる一企業の訴訟問題にとどまらず、生成AIを実社会、特に「高度な専門性が求められる領域」に適用する際の根本的な課題を浮き彫りにしています。生成AIはもっともらしい文章を作成することには長けていますが、現時点ではその内容の法的正確性を保証する主体にはなり得ません。米国における「Unauthorized Practice of Law(UPL:非弁護士による法律業務の無許可実施)」の議論は、そのまま日本の法制度やビジネス環境にも当てはまる重要なテーマです。
日本における「非弁行為」とAI活用の境界線
日本においても、弁護士法第72条により、弁護士以外の者が報酬を得る目的で法律事務を取り扱うこと(いわゆる非弁行為)は禁止されています。AI自身は法人でも自然人でもないため、現行法で直接処罰の対象になるかは議論の余地がありますが、AIツールを提供・利用する企業が「法律相談サービス」のような体裁でAIを活用する場合、法的なリスクが生じる可能性があります。
法務省は、AIによる契約書審査サービス等について、「弁護士の監修があるか」「最終的な判断をユーザー自身や弁護士が行うか」といった観点からガイドラインを示していますが、実務の現場ではまだ曖昧な部分も残されています。企業が社内システムや自社サービスにLLM(大規模言語モデル)を組み込む際、それが「一般的な法的知識の検索・要約」なのか、「個別の事案に対する具体的な法的判断」なのかを明確に区分する必要があります。
ハルシネーションと責任分界点
もう一つの大きなリスクは、生成AI特有の「ハルシネーション(もっともらしい嘘)」です。過去には米国の裁判で、弁護士がChatGPTを使って作成した準備書面に「実在しない判例」が含まれており、裁判所から厳重注意を受けた事例もありました。日本のビジネス現場においても、契約書ドラフトの作成や法規制の調査にAIを利用するケースが増えていますが、AIが出力した内容を人間がダブルチェックせずにそのまま利用することは、企業のコンプライアンス違反や損害賠償リスクに直結します。
AIはあくまで「コパイロット(副操縦士)」であり、最終的な法的責任を負うのは人間(または企業)であるという原則を、組織全体に徹底させる必要があります。
日本企業のAI活用への示唆
今回の米国の事例および日本の法規制を踏まえ、日本企業は以下のポイントを押さえてAI活用を進めるべきです。
- 「判断」と「支援」の明確な切り分け
AIには「翻訳」「要約」「ドラフト作成」「一般的な法情報の検索」といった支援業務を任せ、個別の事案に対する「法的判断」や「最終承認」は必ず人間(有資格者や法務担当者)が行うフロー(Human-in-the-Loop)を確立してください。 - 社内ガイドラインでの明文化
従業員が勝手にChatGPT等を使い、法的文書を作成・提出することを防ぐため、AI利用ガイドラインにおいて「AIの出力をそのまま法的根拠として使用しないこと」「専門家のレビューを必須とすること」を明記する必要があります。 - リーガルテック導入時のベンダー評価
外部のAI法務ツール(契約書レビュー等)を導入する際は、そのツールが日本の弁護士法第72条に抵触しないスキームで設計されているか、開発元が日本の法律実務を深く理解しているかを確認してください。 - 免責事項とUI設計
自社サービスとしてAIチャットボット等を顧客に提供する場合、それが「法的助言ではない」ことを明示する免責事項(ディスクレーマー)を目立つ場所に配置し、ユーザーが誤認しないUI/UXを設計することが重要です。
