Googleが自社の生成AI「Gemini」を活用し、83億件以上の不正広告をブロックしたと発表しました。本記事ではこの事例を紐解きながら、日本企業が生成AIをコンプライアンスやリスク管理などの「守りの業務」へ応用するためのポイントと注意点を解説します。
Googleによる「生成AIを用いた大規模防衛」の実績
先日、Googleが自社の生成AIモデル「Gemini(ジェミニ)」を活用し、年間83億件を超える悪意ある広告をブロックし、2490万もの不正アカウントを停止したというレポートが報じられました。驚異的なのはその精度であり、悪意ある広告の99%をAIツールによって排除できたとされています。
従来のルールベースのシステムや機械学習モデルでは、詐欺師が巧妙にテキストや画像を微修正して検出を逃れる「いたちごっこ」が続いていました。しかし、高度な文脈理解能力を持つ大規模言語モデル(LLM)であるGeminiをモデレーション(不適切コンテンツの監視・制御)に組み込むことで、人間のように文脈の違和感や詐欺の意図を察知し、大規模に対処することが可能になったと言えます。
生成AIを「守り」に使うというパラダイムシフト
日本国内のAIトレンドを見ると、対話型AIを使った「業務効率化」や、新規コンテンツの「生成」といった「攻め」の文脈で語られることが多く見受けられます。しかし、Googleの事例が示しているのは、生成AIがセキュリティやガバナンス、コンプライアンス対応といった「守り」の領域において極めて強力なインフラになり得るという事実です。
例えば、UGC(ユーザー生成コンテンツ)を扱うプラットフォームや自社プロダクトのレビュー欄、あるいは社内から外部へ発信するマーケティング・クリエイティブの審査など、これまで人間の目視に頼らざるを得なかった「文脈の審査」を、生成AIが一次受けするワークフローが考えられます。
日本企業における活用可能性と見過ごせないリスク
日本の商習慣や組織文化において、ブランドセーフティ(ブランド価値の保護)やコンプライアンスは非常に重視されます。景品表示法などの法規制への対応、SNS等での炎上リスクへの警戒感から、多くの企業が多大なコストをかけて法務確認やコンテンツ監視を行っています。ここに生成AIを活用し、社内規程や過去の違反事例を学習させた独自の審査支援システムを構築することは、コスト削減だけでなく事業スピードの向上にも直結します。
一方で、リスクや限界も存在します。生成AIは確率的な出力を伴うため、正常なコンテンツを誤って不正と判定してしまう「過剰ブロック(偽陽性)」のリスクが避けられません。また、「なぜAIが不正と判断したのか」という説明責任がブラックボックス化しやすい点も課題です。法的な判断を伴う領域では、AIに全てを委ねるのではなく、疑わしいものをAIがフラグ付けし、最終判断を人間が行う「ヒューマン・イン・ザ・ループ(人間介在型)」の設計が必須となります。
日本企業のAI活用への示唆
今回のGoogleの事例から、日本企業が実務でAIを活用・推進する上で押さえておくべきポイントは以下の3点です。
第一に、「攻め」だけでなく「守り」のAI活用を検討することです。社内外のコンプライアンスチェック、広告審査、カスタマーハラスメント検知など、リスク管理部門やカスタマーサポート部門でのLLM活用は、高い投資対効果を生む可能性があります。
第二に、巧妙化する外部脅威への対抗手段としての活用です。悪意ある攻撃者も生成AIを使って詐欺コンテンツを大量生成する時代に入っています。これに対抗するには、企業側も同様に高度なAIを防御システムに組み込む「AI対AI」の構えが求められます。
第三に、適切な人間との協調プロセスの設計です。AIによる自動化率がどれほど高まっても、誤検知への対応には人間の介入が必要です。AIの判断結果を鵜呑みにせず、業務プロセスの中に適切なエスカレーションの仕組みや、継続的なモデルの評価・改善サイクルを組み込むことが、日本の厳しい品質要求に応える鍵となります。
