Googleの生成AI「Gemini」が2026年の暗号資産価格を予測したという報道が注目を集めています。しかし、企業の実務担当者が注目すべきは価格そのものではなく、「LLMが将来予測にどこまで使えるか」という技術的な本質です。本記事では、このニュースを起点に、大規模言語モデル(LLM)による数値予測の仕組み、ハルシネーションのリスク、そして日本企業が予測タスクにAIを導入する際のガバナンスについて解説します。
LLMは「計算」しているのか、それとも「作文」しているのか
海外の暗号資産ニュースメディアにおいて、GoogleのGeminiがXRPやEthereum、BNBといった主要な暗号資産の2026年初頭の価格を予測したと報じられました。記事によれば、Geminiは特定の強気シナリオや弱気シナリオに基づき、具体的な価格帯を提示しています。
しかし、ここでAI実務者が冷静に見極めるべきは、その出力プロセスです。標準的なLLM(大規模言語モデル)は、基本的には「次に来る確率の高い単語(トークン)」を予測する仕組みであり、過去の時系列データを統計的に解析したり、複雑なシミュレーションを実行したりしているわけではありません。多くの場合、インターネット上の膨大な金融記事やアナリストのレポートを学習データとして持ち、それらの「文体」や「論調」を模倣して、もっともらしい数値を生成しているに過ぎない可能性があります。
「もっともらしい嘘」とハルシネーションのリスク
生成AIにおける最大のリスクの一つが「ハルシネーション(もっともらしい嘘)」です。特に数値予測や市場分析の分野では、LLMが自信満々に根拠のない数値を提示することがあります。これは「AIが嘘をつこうとしている」のではなく、文脈上自然な数値を確率的に選んでいるために起こる現象です。
日本企業がこの技術を需要予測や売上見通しなどの経営判断にそのまま利用するのは極めて危険です。例えば、「来期のA製品の売上予測をして」とプロンプトに入力し、返ってきた数字をそのまま事業計画に採用することは、根拠のない噂話を信じるのと同義になりかねません。特に日本の商習慣では、データの正確性と説明責任(アカウンタビリティ)が厳しく問われるため、LLM単体での数値予測はコンプライアンス上のリスクとなります。
実務における正しいアプローチ:AIを「オーケストレーター」として使う
では、AIは予測業務に使えないのでしょうか? 答えは「No」ですが、使い方が異なります。先進的なAI活用の現場では、LLMを単なる「知識ベース」としてではなく、適切なツールを使いこなす「オーケストレーター(指揮者)」として配置します。
例えば、Pythonコードを実行できる環境(Advanced Data Analysisなど)や、外部の正確なデータベースと連携するRAG(検索拡張生成)を組み合わせる手法です。「過去5年の売上CSVを読み込み、統計モデル(ARIMAやProphetなど)を用いて来月の数値を予測し、その結果を日本語で要約して」という指示であれば、計算プロセスは確実なアルゴリズムが行い、LLMはその結果の解釈と伝達を担います。これならば、計算の正確性と生成AIの表現力を両立させることが可能です。
日本企業のAI活用への示唆
今回のGeminiによる市場予測のニュースは、AIの進化を感じさせる一方で、実務適用における「境界線」を考える良い材料となります。日本企業が予測タスクや意思決定支援にAIを導入する際は、以下の3点を意識する必要があります。
1. 「生成」と「分析」の峻別
LLMは文章やアイデアの「生成」は得意ですが、厳密な数値の「分析・計算」は苦手です。数値予測を行いたい場合は、必ず統計ツールや外部APIと連携させるアーキテクチャ(Function Calling等)を採用してください。
2. 金融商品取引法や景品表示法への配慮
今回のニュースのような「投資アドバイス」に近い領域を自社サービスとして提供する場合、日本では投資助言代理業などの登録が必要になる可能性があります。また、AIの誤った予測が顧客に損害を与えた場合の免責事項やガバナンス体制の整備も急務です。
3. Human-in-the-loop(人間による確認)の徹底
AIが出力した予測値や戦略案は、最終的に専門知識を持つ人間が検証するプロセスを業務フローに組み込むべきです。AIはあくまで「ドラフト作成」や「多角的な視点の提供」を行うパートナーであり、最終決定者ではないという位置づけを組織内で明確にすることが、健全なAI活用の第一歩です。
