英国の通信規制当局Ofcomが、イーロン・マスク氏率いるX社のAI「Grok」に対し、性的ディープフェイク生成の懸念から調査を開始しました。この事例は、生成AIの表現能力と安全性のバランスにおける重要な教訓を含んでいます。日本企業が自社サービスや業務に画像生成AIを導入する際、どのようなガバナンスと技術的対策が必要となるのか、最新の動向を踏まえて解説します。
プラットフォームの責任を問う英国の動き
英国の通信規制当局であるOfcom(Office of Communications)は、X社(旧Twitter)が提供するAIチャットボット「Grok」について調査を開始しました。BBCの報道によると、Grokが実在する人物の衣服を脱がせたような性的画像(ディープフェイク)を生成したとの報告を受けたことが発端です。
この調査は、英国の「オンライン安全法(Online Safety Act)」に基づき、プラットフォーム側が違法・有害なコンテンツからユーザーを保護するための適切な措置を講じているかを確認するプロセスの一環です。これまでのSNSにおける投稿監視とは異なり、AI自体が生成するコンテンツに対するプラットフォーム事業者の責任が問われる象徴的な事例と言えます。
「表現の自由」と「安全性」のトレードオフ
Grokは、OpenAIのChatGPTやGoogleのGeminiと比較して、より制限の少ない「自由な」回答や表現を売りにしていますが、今回の事例はその方針が裏目に出た形となりました。生成AIの開発において、開発者は「ガードレール」と呼ばれる安全対策を組み込みます。これは、暴力的、性的、あるいは差別的なプロンプト(指示)が入力された際に、AIが生成を拒否する仕組みです。
しかし、技術的なガードレールは完璧ではありません。ユーザーが巧妙な言い回しで制限を回避する「ジェイルブレイク(脱獄)」の手法は日々進化しており、開発側とのいたちごっこが続いています。日本企業が生成AIをプロダクトに組み込む際、ベンダーが提供するベースモデルの安全性を過信せず、自社の利用用途に合わせた追加のフィルタリングや監視体制を検討する必要があります。
日本国内における法的リスクとブランド毀損
日本国内においても、生成AIによる性的ディープフェイクや偽情報の拡散は深刻な問題として議論されています。日本の現行法では、実在の人物のわいせつな偽画像を作成・公開することは、名誉毀損罪やわいせつ図画公然陳列罪などに問われる可能性があります。また、著作権法においても、AI生成物が他者の権利を侵害した場合の責任論については議論が継続中です。
企業にとっての実務的なリスクは、法的責任だけにとどまりません。例えば、自社のキャンペーンで活用した画像生成AIが、意図せず不適切な画像を生成してしまった場合や、自社サービスに組み込んだAI機能がユーザーによって悪用され、SNS等で拡散された場合の「ブランド毀損(レピュテーションリスク)」は甚大です。Grokの事例は、AIの出力制御が甘い場合、企業そのものが社会的な指弾を受けるリスクがあることを示唆しています。
日本企業のAI活用への示唆
今回のGrokを巡る事例から、日本企業がAI活用を進める上で留意すべきポイントは以下の通りです。
- ガードレールの多層化:モデル提供元(OpenAIやGoogle、Microsoftなど)の標準フィルタリングに加え、入力(プロンプト)と出力(生成物)の両方で、自社の基準に合わせたキーワード検知や画像解析APIなどの独自フィルタリング層を設けることを検討してください。
- 利用規約と免責事項の整備:自社サービス内でユーザーにAIを使わせる場合、生成されたコンテンツに対する責任分界点を明確にし、違法な利用に対する厳格な禁止事項を利用規約に盛り込む必要があります。
- リスク許容度の再評価:「何でも生成できる」ことはビジネスにおいて常にメリットとは限りません。業務効率化や顧客対応においては、あえて生成の自由度を下げ、特定ドメインに特化した安全な回答のみを許容する設計(RAG:検索拡張生成の活用など)が、ガバナンスの観点からは賢明な選択となる場合が多いです。
- 法規制のモニタリング:EUのAI法や英国の動きに続き、日本国内でもAI事業者向けのガイドラインは随時更新されています。開発現場だけでなく、法務・コンプライアンス部門と連携し、最新の規制動向をプロダクト要件に反映させる体制づくりが不可欠です。
