10 3月 2026, 火

生成AIの「非弁行為」リスクにどう向き合うか:ChatGPT提訴事例に学ぶ日本企業のAIガバナンス

生成AIが高度な専門知識を扱うようになる中、米国においてChatGPTが「弁護士資格を持たずに法的支援を行った」として提訴される事案が発生しました。本記事ではこの動向を踏まえ、日本企業が専門領域でAIを活用・プロダクト化する際に留意すべき法規制やガバナンスの実務対応について解説します。

生成AIによる「非弁行為」が問われる事案の発生

米国において、ChatGPTが弁護士資格を持たずに法的支援を提供したとして提訴されるという注目すべき事案が発生しました。報道によると、日本生命に関連する訴訟で和解に至った元・本人訴訟(弁護士を立てずに自ら訴訟を行うこと)の当事者に対し、ChatGPTが無許可で法的なアドバイスを行ったことが問題視されています。

大規模言語モデル(LLM)の発展により、生成AIは判例や法律の条文を読み解き、論理的でもっともらしい回答を生成できるようになりました。しかし、そうした高度な能力が実際の法的トラブルや手続きに直接利用された結果、人間の専門家にのみ許されている「法律業務の独占」という制度と衝突し始めたのが、今回の事案の本質と言えます。

日本における法規制の壁と弁護士法第72条

このニュースは、決して対岸の火事ではありません。日本企業がAIを実業務や自社サービスに導入する際にも、日本の法規制や商習慣に照らした慎重な判断が求められます。特に法律分野においては「弁護士法第72条」が非弁行為(弁護士資格を持たない者が報酬を得る目的で法律事務を行うこと)を厳しく禁じています。

たとえば、企業が自社の顧客向けに「AI法律相談チャットボット」を提供したり、法務部門を持たない企業が「AI法務アシスタント」を導入したりする場合、AIが個別具体的な事案に対して法的な見解や解決策を提示してしまうと、現行法上、非弁行為とみなされるリスクが生じます。AIが一般的な法律の仕組みや公開情報を要約して提示するにとどまるのか、それとも個別の状況に応じた法的判断を下しているのか、という境界線の見極めがコンプライアンス上極めて重要になります。

他分野の独占業務規制とプロダクトへの組み込みリスク

法律分野に限らず、日本の法制度には専門性と安全性を担保するための独占業務が多数存在します。税理士法に基づく税務相談、社会保険労務士法に基づく労務相談、医師法に基づく診断行為などがその代表例です。

企業が自社プロダクトや社内システムにAIによるアドバイス機能を組み込む際、「AIがもっともらしい嘘をつく(ハルシネーション)」という技術的なリスクへの対策に目を奪われがちです。しかし、AIが「正確な専門知識」を提供できたとしても、それが法規制に抵触する個別アドバイスであれば、深刻なコンプライアンス違反を引き起こす可能性があります。そのため、生成AIを新規事業やプロダクトに実装するエンジニアやプロダクトマネージャーは、対象領域の法規制を事前に法務部門と連携して洗い出しておく必要があります。

日本企業のAI活用への示唆

今回の事例から、日本企業が安全かつ効果的にAIを活用し、事業価値を創出するための実務的なポイントを3点に整理します。

第一に、「ヒューマン・イン・ザ・ループ(人間の介在)」を前提としたプロセス設計です。AIを最終的なアドバイザーや意思決定者として扱うのではなく、あくまで「人間の専門家の作業を支援し、効率化するためのドラフト作成・リサーチツール」として位置づけることが、現行の法規制下では最も現実的かつ安全なアプローチです。最終確認と責任は常に人間(有資格者や専門部署)が負う体制を構築してください。

第二に、プロダクト提供時の免責事項とUI/UXの工夫です。AI機能を提供する画面上には「本機能は一般的な情報提供を目的としており、専門的な法的・医療的助言を代替するものではありません」といった免責事項を明示することが重要です。同時に、ユーザーがAIの回答を鵜呑みにしないよう、専門家への相談窓口への導線を設けるといったサービス設計上の配慮が求められます。

第三に、社内ガイドラインの策定と従業員教育の徹底です。従業員が業務で生成AIを利用する際、安易に外部取引先への法的回答や契約交渉方針の決定をAIに依存しないよう、利用ルールの周知とAIリテラシー教育を継続的に行うことが、組織のガバナンスを守る上で不可欠です。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です