ChatGPT内の広告や情報提示において、従来の「創造性」よりも「明確さ」が重視されているという最新調査が発表されました。生成AIをインターフェースとした顧客接点の変化と、日本企業がマーケティングや事業戦略において留意すべき実務的なポイントを解説します。
生成AIインターフェースにおける情報提示のトレンド
大規模言語モデル(LLM)を活用したチャットボットやAI検索エンジンが日常的に利用されるようになり、ユーザーと企業情報の新しい接点が生まれつつあります。AI広告インテリジェンス企業のAdthena社が実施した調査によると、ChatGPT内での広告(情報提示や参照リンク等)において、従来の広告のような「創造性(Creativity)」よりも「明確さ(Clarity)」が好まれ、そのフォーマットが急速に標準化されていることが示唆されています。
従来のWeb検索やバナー広告では、ユーザーの目を引くための感情に訴えかけるキャッチコピーや独創的なビジュアルが重視されてきました。しかし、対話型AIを利用するユーザーは、特定の課題解決やダイレクトな「答え」を求めています。そのため、過度に装飾的な表現はむしろノイズと見なされやすく、簡潔で事実に基づいた明確な情報提示が評価される傾向にあると考えられます。
AI最適化(GEO)と従来型マーケティングの違い
この「明確さの優位性」は、今後のデジタルビジネスにおいて重要な意味を持ちます。現在、従来のSEO(検索エンジン最適化)に代わり、AIの回答に自社情報を適切に組み込ませるための「GEO(Generative Engine Optimization:生成AIエンジン最適化)」という概念が注目を集めています。
AIはウェブ上のデータを学習・参照して回答を生成しますが、その際、AI(機械)にとって読み取りやすく、論理構造が整理された情報(データ、仕様、事実関係など)が優先的にピックアップされる傾向にあります。企業側は「人間に対する感情的なアピール」と「AIに対する論理的・構造的なデータ提供」を戦略的に切り分けて考える必要が出てきています。
日本の商習慣や法規制から見る留意点とリスク
日本国内のWebプロモーションでは、ランディングページ(LP)に見られるような、情緒的な訴求や豊富な画像を用いた表現が好まれてきた背景があります。しかし、AI経由での情報発信においてこのようなアプローチに偏りすぎると、AIが本来の意図や事実関係を正しく解釈できず、ユーザーに情報が届かなくなるリスクがあります。
また、コンプライアンスやガバナンスの観点でも注意が必要です。日本では2023年10月よりステルスマーケティング(ステマ)規制が強化されました。AIの回答内に自社のプロモーション情報が組み込まれる場合、それが「広告」であるとユーザーに明確に伝わる仕組みとなっているか、プラットフォーマー側の仕様を注視する必要があります。さらに、AI特有の「ハルシネーション(事実と異なるもっともらしいウソを生成する現象)」によって自社サービスが誤った内容で紹介され、景品表示法上のリスクやブランド毀損につながる懸念も意識しておくべき限界事項です。
日本企業のAI活用への示唆
こうしたグローバルの動向と国内の環境を踏まえ、日本企業がAIプラットフォームと向き合う際の実務的な示唆を以下に整理します。
1. 情報の構造化と「機械可読性」の向上:
自社のWebサイトや公開情報を、LLMが正確に抽出・要約しやすいよう、シンプルで論理的な構造に見直すことが求められます。抽象的なキャッチコピーだけでなく、事実やスペックを明確に記載することが、AIを経由した顧客接点拡大の第一歩となります。
2. 顧客の「意図」に的確に応える情報設計:
AIを利用する顧客は、明確な課題を持って質問を投げかけています。自社プロダクトが解決できる課題や提供価値を、簡潔かつダイレクトな言葉で定義しておくことが、AIによる適切なリコメンドを促す鍵となります。
3. ガバナンス・法的リスクへの継続的な対応:
AIプラットフォームにおける広告や情報提示の仕様は現在も発展途上であり、頻繁に変更されます。ステマ規制や景品表示法、著作権などの国内法規に照らし合わせながら、自社情報の扱われ方を定期的にモニタリングし、過度に特定のプラットフォームに依存しない柔軟な体制づくりが重要です。
