米メディアで話題となった「ChatGPTへの税務相談」の事例は、専門業務におけるAI活用の難しさを浮き彫りにしています。本記事では、日本企業が税務や法務などの専門領域で生成AIを活用する際のリスクと、実務において取るべき適切なアプローチを解説します。
生成AIに専門業務を任せる際に陥りやすい罠
近年、ChatGPTをはじめとする大規模言語モデル(LLM)を、日常的なテキスト作成や業務効率化だけでなく、税務や法務といった専門領域にも活用しようとする試みが増えています。しかし、米メディアのCNBCは「ChatGPTに税務相談をしたところ、専門家から『典型的な罠』に陥っていると指摘された」という事例を報じました。
この「典型的な罠」とは、AIが事実に基づかない情報をあたかも事実であるかのように生成する「ハルシネーション(もっともらしい嘘)」を信じ込んでしまう現象を指します。論理的で整った文章を生成することに長けたLLMは、専門用語を巧みに操り、自信満々に回答を提示するため、利用者がその誤りに気づきにくいという厄介な性質を持っています。
日本の税務・法務におけるAIの限界
日本企業がAIを専門業務に活用する際にも、これと同様のリスクが常に存在します。日本の税制や法律(会社法、労働法など)は非常に複雑であり、毎年のように改正が行われます。さらに実務においては、個別のケースにおける特例や通達、過去の判例などを踏まえた、文脈に応じた高度な解釈が求められます。
LLMは過去の膨大なデータを学習していますが、常に最新の法改正や通達を正確に反映しているわけではありません。また、グローバルなデータで学習されている汎用的なAIモデルの場合、日本のローカルな法律のニュアンスを捉えきれず、他国の制度と混同した回答を出力するケースすらあります。このような不正確な情報を基に経営上の意思決定を行えば、追徴課税やコンプライアンス違反といった重大なリスクに直面する可能性があります。
コンプライアンスと「専門家法」の壁
さらに、日本国内でAIを活用する際には、法規制やコンプライアンスの観点も重要になります。例えば、税理士の資格を持たない者が有償・無償を問わず個別の税務相談に応じることは税理士法違反となる可能性があり、法務領域においても弁護士法(非弁活動の禁止)という厳格な規制が存在します。
AIそのものが直接的にユーザーや従業員へ専門的な助言を行うような社内システム・顧客向けサービスを構築する場合、これらの法律に抵触するリスクを慎重に検討しなければなりません。企業としては、「AIの回答はあくまで一般的な情報提供に留め、最終的な判断や個別具体的な助言は資格を持つ専門家が行う」というプロセスを、システム設計や利用規約に明確に組み込むことが不可欠です。
「Human-in-the-loop」による適切な役割分担
では、専門業務においてAIは役に立たないのでしょうか。結論から言えば、AIの役割を「最終的な意思決定者」ではなく「優秀なリサーチアシスタント」と再定義することで、業務効率化の強力な武器となります。
実務においては、AIにゼロから回答を求めたり、最終判断を委ねたりするのではなく、専門家がチェックするための「たたき台」の作成や、膨大な社内資料・過去事例からの論点整理といった初期作業を任せるのが現実的なアプローチです。このように、AIの処理プロセスの重要なポイントに人間を介在させる仕組みは「Human-in-the-loop(ヒューマン・イン・ザ・ループ)」と呼ばれ、AIの効率性と人間の正確性を両立させるための実務的なベストプラクティスとされています。
日本企業のAI活用への示唆
専門領域におけるAI活用において、日本企業が留意すべき要点と実務への示唆は以下の通りです。
・ハルシネーションへの警戒:AIはもっともらしい誤情報を出力する性質があることを前提とし、税務・法務・財務などのクリティカルな領域では、AIの出力を鵜呑みにしない組織リテラシーを育成する。
・RAGの活用と限界の理解:最新の社内規程や法改正情報をAIに参照させるRAG(検索拡張生成)技術の導入は精度向上に有効だが、それでも推論・解釈の誤りは起こり得るため、原典の裏付け確認は省略しない。
・専門家による最終レビューの徹底:AIの役割を「情報整理・ドラフト作成」に限定し、最終的な判断・意思決定は人間(社内の法務・財務部門や外部の税理士・弁護士など)が行う「Human-in-the-loop」の体制をプロセスとして標準化する。
・法規制への準拠:自社サービスや社内システムにAIを組み込む際は、税理士法や弁護士法などの専門家法に抵触しないよう、提供する情報のスコープを限定し、免責事項を適切に設計する。
生成AIは強力なテクノロジーですが、専門的な知識とそれに伴う「責任」を完全に代替するものではありません。AIの特性と限界を正しく理解し、人間とAIがそれぞれの強みを活かして協働する仕組みを構築することが、安全で価値のあるAI活用の第一歩となります。
