GoogleのAI検索とChatGPTでは、特定のブランドや製品に対するネガティブな評価の傾向が大きく異なるという調査結果が発表されました。本記事では、プラットフォームごとに異なるAIの出力傾向を紐解き、日本企業が直面するブランドリスクと、プロダクト開発における安全なAI活用のポイントを解説します。
AIプラットフォーム間で異なる「ブランド評価」の傾向
米Fortune誌で報じられた最近の調査によると、Googleの検索結果にAIによる要約を表示する機能「AI Overviews」は、OpenAIの「ChatGPT」に比べて、特定のブランドや製品に対してネガティブな評価を下す確率が44%高いことがわかりました。しかし興味深いことに、ユーザーが「2つの製品を比較して選んでほしい」とChatGPTに指示(プロンプトを入力)した場合、役割が逆転し、ChatGPTの方がよりネガティブな評価を下す傾向が確認されています。
この事実は、AIが自社ブランドをどのように語るかが、利用されるAIモデルやユーザーの質問の仕方によって大きく変動することを示しています。各AIモデルは、学習したデータセットの偏りや、人間のフィードバックによる強化学習(RLHF:出力の安全性を高めるための調整プロセス)、システムプロンプトの設計方針が異なります。そのため、あるAIでは好意的に紹介される製品が、別のAIではリスクや欠点ばかりが強調されるという事態が起こり得るのです。
SEOから「生成AI最適化(GEO)」への移行と課題
これまで企業のマーケティングや広報活動においては、Googleの検索アルゴリズムに最適化するSEO(検索エンジン最適化)が主戦場でした。しかし、ユーザーが検索エンジンではなく対話型AIを使って情報収集や製品比較を行うようになる中、自社の情報がAIに正しく、かつ適切に解釈されるための「GEO(生成AI最適化)」という概念が注目されつつあります。
特に日本企業は、ブランドの信頼性やレピュテーション(評判)の維持を非常に重視します。AIによる事実誤認(ハルシネーション)や、根拠のないネガティブな評価が拡散することは、大きなビジネスリスクとなります。対策として、自社の公式サイトやプレスリリースにおいて、AIが読み取りやすい形式(構造化データなど)で一次情報を継続的に発信し、AIモデルの学習元となる信頼性の高いデータソースを自ら提供していく姿勢が求められます。
プロダクトへのAI組み込みにおけるブランドセーフティ
この問題は、自社のプロダクトや業務システムにLLM(大規模言語モデル)を組み込むエンジニアやプロダクト担当者にとっても重要です。近年、自社の社内ドキュメントや製品マニュアルを外部のLLMと連携させ、回答精度を高める「RAG(検索拡張生成)」を用いたチャットボットの開発が盛んに行われています。
ここで留意すべきは、日本の商習慣や法規制(景品表示法など)への配慮です。他社製品をあからさまに貶めたり、客観的な根拠なく自社製品を過剰に優位だと主張するような回答をAIが生成してしまった場合、企業のコンプライアンスが問われかねません。比較質問を投げかけられたAIが過激な回答をしないよう、システム側に「ガードレール(不適切な出力を検知・ブロックする仕組み)」を設け、中立的かつ事実に基づいた回答のみを行うように制御する技術的・運用的な工夫が不可欠です。
日本企業のAI活用への示唆
今回の調査結果から得られる、日本企業に向けた実務上の要点と示唆は以下の通りです。
第1に、マーケティング・広報部門は「AIごとに自社ブランドの評価が異なる」という前提に立ち、主要な生成AIプラットフォーム(ChatGPT、Google AI Overviews、Claudeなど)において自社製品がどのように言及されているかを定期的にモニタリングする体制を整えるべきです。ネガティブな評価が目立つ場合は、公式サイトでのFAQ拡充など、AIが参照しやすい正しい一次情報の発信を強化する必要があります。
第2に、プロダクト開発部門は、自社サービスにAIを組み込む際、AIが他社製品を不当に貶めるリスク(ブランドセーフティの問題)を認識することです。ユーザーからの「競合他社のA製品と比べてどうですか?」といった比較プロンプトに対して、感情的・ネガティブな評価を避け、客観的なスペックの違いのみを答えるようなプロンプトエンジニアリングやガードレールの実装が求められます。
生成AIは強力な業務効率化・サービス創出のツールですが、その出力は常に「中立・公平」とは限りません。AIの特性と限界を正しく理解し、技術的制御とコンプライアンス意識の両輪でガバナンスを効かせることが、日本企業がAIを安全にビジネス実装するための鍵となります。
