ChatGPTなどの生成AIは強力な業務アシスタントですが、「計算」や「厳密な法解釈」には根本的な限界があります。本記事では、税務コンサルタントとしてAIを利用する際のリスクを起点に、日本企業が正確性の求められる業務領域でAIを安全に活用するためのシステム設計とガバナンスの要点を解説します。
LLMは「言語のプロ」であって「計算機」ではない
ChatGPTをはじめとするLLM(大規模言語モデル)は、文章の要約や翻訳、アイデア出しなどの言語処理において目覚ましい成果を上げています。しかし、LLMの根本的な仕組みは「入力されたテキストに続く確率が最も高い単語(トークン)を予測し、つなぎ合わせる」というものです。そのため、表面上は論理的に見えても、内部で四則演算などの数学的な計算処理を行っているわけではありません。
海外メディアでも「ChatGPTを税務コンサルタントとして使うべきではない」と指摘されている通り、LLMは桁数の多い計算や、複雑な条件分岐を伴う税務ロジックを単独で解くのが非常に苦手です。もっともらしい文章で間違った計算結果を出力する「ハルシネーション(AIが事実と異なる情報を生成する現象)」を引き起こしやすく、数値をそのまま業務に利用することは大きなリスクを伴います。
厳密性が求められる税務・経理領域でのリスクと日本の法規制
特に日本の税務・経理業務においては、インボイス制度や電子帳簿保存法への対応など、厳格なコンプライアンスと頻繁な法制改正への適応が求められます。企業内で従業員向けにAIチャットボットを展開する場合、「この領収書は経費で落とせますか?」「軽減税率の対象になりますか?」といった質問が寄せられることが想定されますが、これらをLLMの内部知識だけで回答させるべきではありません。
さらに、日本の組織文化や商習慣において「数字の正確性」は極めて重視されるうえ、法的な観点も見過ごせません。日本では税理士法により、資格を持たない者が個別具体的な税務相談に応じることが禁止されています。AIシステムがユーザーの個別状況に対して断定的な税務アドバイスを行うようなプロダクト設計は、コンプライアンス上の重大なリスクとなる可能性があります。
安全に活用するためのシステム設計(アーキテクチャ)
では、税務や経理などの管理部門業務において、AIは役に立たないのでしょうか。結論としては、「LLMに適材適所の役割を与えるシステム設計」を行えば、強力な業務効率化ツールとなります。AIに直接計算や法的判断をさせるのではなく、以下のようなアプローチが有効です。
一つは「RAG(検索拡張生成)」の活用です。これは、企業独自の社内規程、経費精算マニュアル、最新の国税庁のガイドラインなどの外部データとAIを連携させ、その情報群の中から適切な答えを探し出して回答させる技術です。これにより、AIが独自の想像で回答するリスクを大幅に減らすことができます。
もう一つは、LLMを単なる「ユーザーインターフェース(窓口)」として位置づけ、実際の計算処理は外部のプログラムに委譲するアプローチです。ユーザーからの自然言語の質問をAIが読み取り、システム側で従来の計算モジュール(API)やPythonのコード実行機能(Code Interpreterなど)を呼び出して計算を行い、その結果をAIが分かりやすくユーザーに伝えるという仕組みであれば、正確性と利便性を両立できます。
日本企業のAI活用への示唆
本件から得られる、日本企業がAIを実務に導入する際の重要な示唆は以下の3点です。
1. 「できること」と「できないこと」の明確な切り分け
AIプロダクトの企画・開発においては、LLMを万能な「頭脳」として扱うのではなく、「言語を解釈するインターフェース」として活用するよう設計を見直すことが重要です。計算や厳密な論理チェックが必要なプロセスは、従来のルールベースのシステムと統合させるハイブリッドなアプローチが求められます。
2. ヒューマン・イン・ザ・ループ(人間の介在)の徹底
税務や法務にかかわる出力結果をそのまま自動実行するのではなく、最終的に人間(専門家や担当者)が確認・承認するプロセスを業務フローに組み込むことが不可欠です。AIはあくまで「ドラフト作成」や「一次スクリーニング」を行うアシスタントであるという社内教育も併せて必要です。
3. 法務部門との早期連携とガイドラインの策定
新規事業や社内システムにAIを組み込む際は、開発初期段階から法務・コンプライアンス部門と連携し、税理士法や弁護士法などの関連法規に抵触する恐れがないか、出力内容に対する免責事項が適切に設定されているかを確認するAIガバナンス体制を構築してください。
