ユーザーの検索行動が「キーワード検索」から「対話型AIへの質問」へとシフトする中、企業は新たな情報発信戦略を迫られています。本稿では、ChatGPTなどのLLMにおいて自社ビジネスがどのように認識・推奨されるかをコントロールする「GEO(Generative Engine Optimization)」の概念と、日本企業が取るべき実務的アプローチについて解説します。
SEOからGEO(Generative Engine Optimization)へのパラダイムシフト
これまでのデジタルマーケティングでは、Google検索などの検索エンジンで上位表示を目指す「SEO(Search Engine Optimization)」が定石でした。しかし、ChatGPTやPerplexity、GoogleのAI Overviews(旧SGE)の普及に伴い、ユーザーの行動は「リンクを探す」ことから「AIに答えを求める」ことへと変化しています。
例えば、「中堅製造業向けの生産管理システムのおすすめは?」とユーザーが尋ねた際、AIが自社製品を候補として挙げ、かつ正確な特徴を説明してくれるかどうかが、今後のビジネス機会を左右します。この新たな最適化手法は、海外では**GEO(Generative Engine Optimization)**や**AIO(Answer Engine Optimization)**と呼ばれ、マーケティングと広報の境界線にある新たな課題として注目されています。
AIはどのように企業や製品を認識しているか
AIに自社を正しく認識させるためには、LLM(大規模言語モデル)が情報を取得する2つの経路を理解する必要があります。
一つは「学習データ」です。モデルのトレーニング期間に含まれる過去のWebデータや書籍データです。もう一つは、現在の主流である「Webブラウジング機能(またはRAG:検索拡張生成)」です。AIはユーザーの質問に対し、リアルタイムで信頼性の高いWebページを検索・読み込み、回答を生成します。
したがって、自社サイトの情報構造がAIにとって読みやすい形式(構造化データなど)になっているか、そして**「信頼できる第三者メディア(ニュースサイト、業界紙、レビューサイト)」**で自社が言及されているかが極めて重要になります。AIは単なる自社サイトの宣伝文句よりも、複数のソースから検証された情報を「事実」として優先する傾向があるためです。
日本企業が直面する課題:ハルシネーションとブランド毀損リスク
日本企業が特に注意すべきなのは、**ハルシネーション(もっともらしい嘘)**によるブランドリスクです。日本語の学習データは英語に比べて絶対量が少ないため、AIが情報の空白を埋めようとして、「存在しない製品機能を捏造する」あるいは「競合他社の不祥事を自社のものとして誤認する」といった事象が発生し得ます。
従来のSEOであれば、検索順位が下がるだけで済みましたが、生成AIの場合は「誤った情報が対話の中で確信を持って語られる」ため、ユーザーの誤解がより深くなるリスクがあります。特に日本の商習慣では正確性と信頼性が重視されるため、AIが出力する自社情報に対する定期的なモニタリング(AIオーディット)は、ガバナンスの一環として必須になりつつあります。
日本企業のAI活用への示唆
以上の動向を踏まえ、日本の経営層やプロダクト担当者は以下の3点を意識してアクションを取るべきです。
1. 「一次情報」の発信強化と構造化
AIは論理的で体系的な情報を好みます。自社サイトにおいて、製品のスペック、価格、事例などを曖昧な表現ではなく、明確かつ構造的(HTMLの構造やSchema.orgの活用など)に記述してください。PDFだけで情報を公開するのではなく、テキストデータとして読める形式にすることが重要です。
2. デジタルPRと「サイテーション」の獲得
単に自社サイトを更新するだけでなく、業界メディアや信頼性の高いニュースサイトに取り上げられるような広報活動(デジタルPR)が、GEOの観点からも重要度を増しています。AIは「誰が言っているか」よりも「多くの信頼できるソースが何と言っているか」を重視して回答を合成するためです。
3. 生成AI上のブランドモニタリング体制の構築
主要なLLM(GPT-4、Claude 3、Geminiなど)で定期的に自社名や製品名を検索し、どのように紹介されているかを確認するプロセスを業務に組み込んでください。万が一、事実と異なる回答が生成される場合は、Web上の誤情報の訂正や、公式サイトでのFAQ拡充を行うことで、AIが参照する「正解データ」を増やすという地道な対策が求められます。
