著名な認知科学者でありAI懐疑派としても知られるゲイリー・マーカス(Gary Marcus)氏は、現在の過熱するAIブームに対し「詐欺的(Scam)な側面がある」と強い言葉で警鐘を鳴らしています。この過激とも取れる主張の背景には、技術的な限界と市場の期待値の乖離があります。本記事では、マーカス氏の視点を手掛かりに、日本企業が現在のAIブームをどのように冷静に捉え、実務に落とし込むべきかを解説します。
「AGIはすぐそこ」という幻想と現実のギャップ
ゲイリー・マーカス氏は、以前からディープラーニング単体での知能実現に懐疑的な立場を取ってきました。彼の「The whole thing was a scam(全体が詐欺だった)」という挑発的な言葉は、特定のベンダーや製品を攻撃するためだけのものではなく、シリコンバレーを中心に形成された「汎用人工知能(AGI)は目前である」という過度なナラティブ(物語)に対する批判と捉えるべきです。
現在、生成AIへの投資は天文学的な規模に達していますが、実務レベルでは「ハルシネーション(もっともらしい嘘)」や「推論能力の欠如」といった課題が依然として解決されていません。マーカス氏の指摘は、確率論的に次の単語を予測する大規模言語モデル(LLM)の仕組みだけでは、人間のような信頼性のある論理的思考や常識判断には到達できないという「スケーリング則の限界」を示唆しています。
日本企業が直面する「信頼性」の壁
この議論は、品質と信頼性を重視する日本の商習慣において極めて重要です。シリコンバレー流の「Move fast and break things(素早く行動し破壊せよ)」という文化とは異なり、日本の企業、特に金融、製造、インフラなどの領域では、99%の精度でも不十分なケースが多々あります。
LLMを「魔法の杖」として扱い、顧客対応や意思決定プロセスに無批判に組み込むことは、コンプライアンス上の重大なリスクとなり得ます。マーカス氏が懸念するように、AIベンダーのデモ動画やベンチマークスコアが、必ずしも自社の複雑な業務環境でのパフォーマンスを保証するわけではありません。日本企業に必要なのは、AIの「知能」に期待することではなく、あくまで「高度なパターンマッチングツール」として、その限界を理解した上で使いこなす冷徹なエンジニアリング視点です。
「魔法」から「実務」へ:地に足のついた活用戦略
では、AIは「詐欺」だから使うべきではないのでしょうか? 答えはNoです。過度な期待(ハイプ)を剥ぎ取った後に残る「実用的な機能」にこそ価値があります。
例えば、要約、翻訳、コード生成の補助、定型的なドラフト作成などは、現時点の技術でも十分な費用対効果(ROI)を出せます。重要なのは、AIに「正解」を出させることではなく、AIが出したアウトプットを人間が検証するプロセス(Human-in-the-loop)を業務フローに組み込むことです。
また、日本国内では著作権法や個人情報保護法への対応もセンシティブな問題です。AIガバナンスの観点からも、ブラックボックス化した巨大モデルに依存しすぎず、RAG(検索拡張生成)を用いて根拠となる社内データを明示させたり、特定のタスクに特化した小規模モデル(SLM)を検討したりするなど、コントロール可能な範囲で技術を活用する姿勢が求められます。
日本企業のAI活用への示唆
ゲイリー・マーカス氏の過激な警鐘を、日本企業は「ブレーキ」ではなく「ステアリング(操舵)」のための情報として活用すべきです。実務への示唆は以下の3点に集約されます。
- ベンダーのナラティブを鵜呑みにしない:「AGIがすべて解決する」という将来の約束ではなく、現在のモデルが「今日できること」と「できないこと」をPoC(概念実証)を通じて厳密に評価してください。
- 説明責任(Accountability)の所在を明確にする:AIがミスをした際、誰がどう責任を取るのか。技術的なガードレールだけでなく、組織的なガバナンス体制の構築が急務です。品質過剰にならず、かつリスクを許容できるユースケースの選定が鍵となります。
- ハイブリッドなアプローチ:LLM単体に頼るのではなく、ルールベースのシステムやシンボリックAI(記号推論)的なアプローチ、そして人間の専門知識を組み合わせることで、信頼性の壁を突破する現実的な設計が求められます。
