英国の投資メディアがChatGPTに「2026年に向けた有望株」を尋ねたところ、AIは興味深いことに「データ・分析企業」をトップピックとして挙げました。この実験結果は単なる銘柄推奨を超え、生成AIが評価するビジネスモデルの堅実性と、AIを意思決定に活用する際の限界・リスクについて重要な示唆を与えています。本稿では、この事例をもとに、日本企業がAIによる予測・分析を実務にどう取り入れるべきかを考察します。
ChatGPTが選んだ「確実性の高い」ビジネスモデル
英国の著名な投資情報メディア「The Motley Fool UK」が実施した実験は、非常に示唆に富むものでした。2026年3月を見据えたFTSE 100(ロンドン証券取引所の主要株価指数)の推奨銘柄をChatGPTに尋ねたところ、AIはRELXやExperianといった「データおよび分析(Data & Analytics)」を主軸とする企業を提示しました。
RELXは科学・技術・医療分野の情報分析を、Experianは信用情報分析を提供するグローバル企業です。ChatGPTがこれらを選定した理由は明白です。「経常収益(Recurring Revenue)の成長」と「多様化したグローバル顧客基盤」という、教科書的に堅実な財務指標を評価したためです。ここから読み取れるのは、生成AIは「投機的な急成長」よりも、膨大なデータを保有し、それを分析価値として提供できる「プラットフォーマーとしての強み」を論理的に高く評価する傾向があるという点です。
生成AIによる「未来予測」のメカニズムと限界
しかし、ここで実務担当者が冷静に理解すべきは、ChatGPTは実際に市場の未来を予知しているわけではないという事実です。大規模言語モデル(LLM)は、過去の学習データに含まれる膨大なアナリストレポート、ニュース記事、財務諸表のパターンを確率的に統合し、「もっともらしい回答」を生成しているに過ぎません。
特に金融やビジネスの意思決定において、以下のリスクは常に考慮する必要があります。
- 情報の鮮度と断絶:学習データのカットオフ(知識の期限)以降に発生した地政学リスクや法改正、突発的な市場変動は考慮されません。
- コンセンサスの再生産:AIの回答は、Web上に存在する「多数派の意見」に収束しがちです。市場で利益を生むための「逆張り」や独自のインサイトを得るには不向きな側面があります。
- ハルシネーション(幻覚):もっともらしい文脈で、架空の数字や事実を生成するリスクは依然としてゼロではありません。
日本企業における活用:法規制とガバナンスの観点から
この事例を日本のビジネス環境に置き換えた場合、法規制とガバナンスへの配慮が不可欠です。日本では金融商品取引法(金商法)などにより、投資助言や勧誘には厳格な規制が存在します。企業が顧客向けサービスとして「AIによる推奨」を提供する場合、それが助言に該当するかどうか、またAIの誤回答に対する免責事項が法的に有効かどうかの精査が必要です。
また、社内の意思決定支援として活用する場合でも、「AIが言ったから」という理由は説明責任(アカウンタビリティ)を果たせません。日本の組織文化では、最終的な判断の根拠を人間が言語化できることが重視されます。AIはあくまで、膨大な資料の要約、シナリオの洗い出し、見落としのチェックといった「セカンドオピニオン」や「リサーチアシスタント」としての位置づけに留めるのが、現時点での最適解と言えるでしょう。
日本企業のAI活用への示唆
今回の英国の事例から、日本の経営層やリーダーが得るべき実務的な示唆は以下の通りです。
1. 「データ保有企業」への転換こそが勝機
ChatGPTがデータ分析企業を高く評価したように、AI時代において最も価値を持つのは「独自の高品質なデータ」を持つ企業です。日本企業が得意とする製造現場のデータ、小売のPOSデータ、熟練工のノウハウなどをデジタル化し、分析可能な資産として整備することが、AI活用以前の最重要課題です。
2. AIは「予測」ではなく「論点整理」に使う
市場予測などの不確実性が高いタスクを丸投げするのではなく、「この銘柄のリスク要因を5つ挙げよ」「競合他社の過去5年の戦略の変化を要約せよ」といった、判断材料を整理させるタスクで活用することで、ハルシネーションのリスクを抑えつつ生産性を向上させることができます。
3. Human-in-the-Loop(人間による確認)の制度化
金融や法務など規制の厳しい分野では、AIの出力を必ず人間が検証するプロセスを業務フローに組み込む必要があります。AIを「新人アシスタント」のように扱い、そのアウトプットをベテラン社員が監督・修正する体制を構築することが、ガバナンスとイノベーションを両立させる鍵となります。
