米国の新設機関がChatGPTを用いて助成金審査を行い、巨額の削減を行った結果、訴訟に発展する事態が報じられました。本記事ではこの事例を教訓に、日本企業が意思決定プロセスにAIを組み込む際のガバナンスやリスク管理のあり方について解説します。
米国で起きたAIによる「助成金打ち切り訴訟」の波紋
米国において、政府の効率化を推進する組織(DOGE)の従業員が、ChatGPTを用いて全米人文科学基金の助成金1億ドル以上を削減し、訴訟に発展するという事案が報じられました。報道によれば、ある博物館の空調設備更新に向けた約35万ドルの助成金が、ChatGPTによって「DEI(多様性・公平性・包摂性)」に関連するプロジェクトだと判定され、取り消しの対象になったとされています。
この事例は、AIを活用した極端なコスト削減や業務自動化が引き起こすリスクを如実に表しています。本来、インフラ維持の要件である空調設備の更新が、なぜDEIという社会的テーマと結びつけられたのかは定かではありません。しかし、大規模言語モデル(LLM)が文脈を誤認したり、指示文の解釈を誤って不適切なラベリングを行ったりする「ハルシネーション(もっともらしい嘘や誤情報)」の実害事例として非常に示唆に富んでいます。
意思決定プロセスにおけるAIの限界とリスク
日本国内の企業や行政機関においても、申請書の審査、社内の経費精算チェック、コンプライアンス違反の検知、さらには採用選考における書類スクリーニングなど、大量のテキストデータを処理する業務へのAI導入が進んでいます。業務効率化や人的ミスの削減といったメリットは非常に大きい一方で、AIの出力結果をそのまま最終判断として採用することには重大なリスクが伴います。
生成AIは確率に基づいて単語を紡ぎ出す仕組みであり、事実確認や論理的な裏付けを自律的に行うわけではありません。AIのブラックボックス化された判定を人間が鵜呑みにする「自動化バイアス」に陥ると、不当な評価や不利益な意思決定を顧客や従業員に強いてしまう恐れがあります。日本の法規制やビジネスの商習慣に照らし合わせても、正当な理由なく不利益な扱いを行うことは、企業の信頼失墜や法務リスクに直結します。
人間とAIの適切な協働の構築
こうしたリスクを回避するためには、AIを意思決定者ではなく優秀なアシスタントとして位置づけるプロセス設計が不可欠です。実務においては、AIに一次スクリーニングや要約、判断材料の抽出を行わせるに留め、最終的な決裁や承認は必ず人間が行う「Human-in-the-loop(人間の介在)」の仕組みを構築する必要があります。
特に日本のビジネス環境では、稟議制度に見られるように、複数の人間が多角的な視点でチェックし、責任の所在を明確にしながら合意形成を図る組織文化が根付いています。この文化は一見すると非効率に思われがちですが、AIを導入する際のリスクヘッジとしては非常に有効に機能します。AIには判定結果だけでなく、なぜその判定に至ったのかという根拠を合わせて出力させ、それを担当者がレビューするというステップを設けることが重要です。
日本企業のAI活用への示唆
第一に、AIを適用する業務の「リスクレベル」を事前に評価することです。書類の要約やアイデア出しといった低リスクな業務から始め、助成金の審査や人事評価といった個人の権利や利益に直結する高リスクな領域では、AIの利用を補助的な範囲に限定するルールを定める必要があります。
第二に、AIの誤判定を前提としたプロセス設計です。AIが間違う可能性を常に考慮し、異常な判定結果が出た際のエラーハンドリングや、判定に不服がある場合の異議申し立てルートをあらかじめ用意しておくことが、AIガバナンスの観点からも求められます。
第三に、社内のAIリテラシー向上と管理体制の強化です。利用する従業員が生成AIの特性やハルシネーションのリスクを正しく理解し、自律的に結果を検証できる能力を養うことが不可欠です。効率化を急ぐあまり人間による検証プロセスを省くことは、一時的なコスト削減に見合わないほどの深刻な訴訟リスクやレピュテーションリスクを招くことを、経営層は深く認識すべきです。
