米国ではChatGPTが節税対策のアドバイスを行った事例が話題となっていますが、これをそのまま日本企業の実務に適用することには慎重であるべきです。高度な専門知識を要する領域における大規模言語モデル(LLM)の活用可能性と、日本国内の法規制や商習慣を踏まえたガバナンスのあり方について解説します。
米国事例に見るAIの「専門家」としての振る舞い
米国において、ChatGPTがユーザーに対して退職金口座への拠出最大化や、HSA(貯蓄型医療口座)の活用、事業経費の控除といった「法的に税金を安くするための戦略」を提示したという事例が報告されています。これらは米国の税制における一般的な知識としては正確であり、生成AIが膨大なテキストデータから論理的な整合性を持って情報を抽出できることを示しています。
しかし、ここで重要なのは、ChatGPTなどのLLM(大規模言語モデル)は、背後にある法的な論理や最新の判例を「理解」しているわけではなく、あくまで学習データに基づいて「もっともらしい回答」を確率的に生成しているに過ぎないという点です。
日本企業が直面する専門領域での「ハルシネーション」リスク
この事例を日本企業に置き換えて考えた場合、リスクはより複雑になります。日本の税法や労働法、商法は頻繁に改正されるうえ、実務上の解釈(通達など)が非常に細かく規定されています。
一般的なLLMは、インターネット上の膨大な情報を学習していますが、その中には古い法律情報や、誤った解釈のブログ記事なども含まれています。そのため、日本の税制について尋ねた際に、もっともらしく見えるが実際には「廃止された制度」や「要件を満たさない控除」を提案してしまう「ハルシネーション(もっともらしい嘘)」のリスクが常に存在します。
特に日本語の専門領域データは英語圏に比べて学習量が少ない傾向にあり、精度の面でも注意が必要です。社員が業務効率化のためにAIのアドバイスを鵜呑みにし、誤った税務処理や契約書作成を行えば、コンプライアンス違反や追徴課税といった重大な経営リスクに直結します。
「検索」ではなく「要約・ドラフト」としての活用
では、専門領域でAIは使えないのかというと、そうではありません。重要なのは「正解を教えてもらう」のではなく「思考の補助」として使うというアプローチです。
例えば、国税庁のタックスアンサーや社内規定、過去の判例データなどを信頼できるナレッジベースとして用意し、AIにそれらを参照させて回答を生成させる「RAG(検索拡張生成)」という技術が有効です。これにより、AIの回答根拠を明確化し、ハルシネーションを抑制することが可能です。
また、最終的な意思決定をAIに委ねるのではなく、「複雑な条文をわかりやすく要約する」「専門家(税理士や弁護士)に相談するためのドラフトを作成する」といった用途であれば、現時点でも大きな業務効率化が見込めます。
日本企業のAI活用への示唆
今回の米国の事例を踏まえ、日本企業が専門領域でAIを活用する際には以下の3点を考慮すべきです。
1. 「Human-in-the-Loop」の徹底と責任分界点の明確化
AIの出力結果をそのまま業務や意思決定に適用せず、必ず有資格者や担当者が確認するフローを構築してください。AIはあくまで「アシスタント」であり、法的責任は人間が負うという意識を組織文化として定着させる必要があります。
2. 汎用モデルと特化型RAGの使い分け
ChatGPTのような汎用モデルに直接専門的な質問を投げるのではなく、自社のドキュメントや信頼できる公的情報を参照元とするRAGシステムの構築、または専門領域に特化したAIソリューションの導入を検討すべきです。
3. 入力データに関するガバナンス
「節税相談」のような具体的なケースでは、自社の財務状況や機密情報をプロンプトに入力してしまうリスクがあります。パブリックなAIサービスへのデータ入力に関するガイドラインを策定し、必要に応じて学習に利用されない設定(オプトアウト)や、セキュアな環境でのAPI利用を徹底することが不可欠です。
