米国で、ChatGPTが無資格で法的アドバイスを提供したとして提訴される事案が発生しました。高度な専門知識が求められる領域での生成AI活用において、日本企業はどのような法的リスクを認識し、実務に落とし込むべきかを解説します。
米国で顕在化した「AIによる無資格での専門的助言」リスク
米国において、OpenAIが提供するChatGPTが「無資格で法的アドバイスを提供した(Unauthorized Practice of Law)」として提訴される事案が報じられました。訴状では、ユーザーへの法的な助言に関してOpenAIが責任を負うべきだと主張されています。これは、大規模言語モデル(LLM)の性能が飛躍的に向上したことで、AIがもっともらしい専門的な回答を生成できるようになったがゆえに顕在化したリスクと言えます。ユーザーがAIの出力を「専門家からの確固たるアドバイス」として鵜呑みにしてしまう危険性が、法的な責任問題に発展している形です。
日本における弁護士法第72条(非弁行為)との関係
この問題を日本国内のビジネス環境に置き換えると、真っ先に直面するのが「弁護士法第72条」が定める非弁行為の禁止です。弁護士資格を持たない者(法人やシステムを含む)が、報酬を得る目的で個別具体的な法的トラブルに対して鑑定や助言などの法律事務を行うことは厳格に禁じられています。日本でも近年、AIを用いた契約書レビュー支援サービスなどが普及していますが、法務省のガイドライン等でも「一般的な法令知識の提供」にとどまるか、「個別具体的な事案に対する法的アドバイス」に踏み込むかによって、適法性が分かれることが示されています。この問題は法務に限らず、税務(税理士法)、労務(社会保険労務士法)、医療(医師法)といった独占業務を持つすべての専門領域において同様に考慮すべき課題です。
社内利用や顧客向けプロダクト開発における留意点
日本企業においても、生成AIを用いて社内の法務・労務ヘルプデスクを効率化したり、顧客向けに専門的な質問に答えるチャットボットをサービスに組み込んだりする動きが加速しています。ここで重要になるのは、システムの挙動と運用ルールの両面でリスクをコントロールすることです。プロンプトエンジニアリングなどの技術的手法を用いて「AIはあくまで一般論を提示し、最終的な個別判断は行わない」よう制約を設ける必要があります。また、ハルシネーション(AIが事実と異なる情報を生成する現象)による誤った判断を防ぐため、RAG(検索拡張生成:自社データや信頼できる外部文書を参照して回答精度を高める技術)の導入が有効です。同時に、UI/UXや利用規約において「本回答は法的・専門的な助言を構成するものではない」という免責事項を明示することが、実務上の基本的な防衛策となります。
日本企業のAI活用への示唆
今回の米国での訴訟は、AIの社会実装が進むにつれて企業が直面するガバナンスの課題が新たなフェーズに入ったことを示しています。日本企業が専門性の高い領域でAIを安全かつ効果的に活用するためには、以下の点に留意してプロジェクトを進めることが推奨されます。
1. 専門領域におけるリスク評価の徹底:法務、税務、医療などの専門知識を扱うAIプロダクトや社内システムを企画する際は、初期段階から法務部門や外部専門家を巻き込み、日本の独占業務関連法制に抵触しないか慎重に要件定義を行ってください。
2. Human-in-the-Loop(人間の介在)を前提としたプロセス設計:AIを最終的な意思決定者やアドバイザーとして扱うのではなく、あくまで人間の専門家の業務を支援する「一次回答のドラフト作成」や「壁打ち相手」として位置づけ、人間が最終確認を行う業務プロセスを構築することが重要です。
3. ガバナンスとリテラシー教育の両輪:システム側での免責事項の明示や出力制限といった技術的ガバナンスに加え、ユーザーとなる従業員に対して「AIの出力結果を鵜呑みにせず、最終判断は人間が行う」というAIリテラシー教育を継続的に実施することが、組織全体のリスク低減に繋がります。
