OpenAIはChatGPTアカウントに対し、ユーザーが未成年であるかをAIが推定・予測し、必要に応じて本人確認を求める仕組みの導入を開始しました。この動きは、単なる機能追加にとどまらず、AIサービス提供者が直面する「未成年者保護」と「コンプライアンス」の厳格化を象徴しています。本稿では、この事例をもとに、日本企業がAIプロダクトを開発・運用する際に考慮すべき本人確認(KYC)やリスク管理のあり方について解説します。
ChatGPTにおける年齢推定と本人確認の仕組み
OpenAIは、ChatGPTの利用者が適切な年齢に達しているか(多くの国では13歳以上、一部地域ではそれ以上)を確認するため、アカウントに対する年齢推定(Age Prediction)の導入を進めています。具体的には、AIがユーザーの振る舞いやアカウント情報を分析し、未成年である可能性が高いと判断した場合、サービス利用を継続するために年齢確認を求められるというものです。
誤って未成年と判定された成人ユーザーは、本人確認ソリューション「Persona」などを通じて、身分証の提示や自撮り(セルフィー)による生体認証を行うことで、誤判定を修正する必要があります。これは、従来の「生年月日を入力させるだけ」の自己申告型の年齢確認から、AIによる能動的なモニタリングと、厳格なeKYC(電子的本人確認)を組み合わせたモデルへの移行を意味します。
なぜ今、AIによる「能動的な年齢確認」が必要なのか
この背景には、世界的なAI規制と未成年者保護の潮流があります。生成AIはあらゆる質問に答える能力を持つ反面、未成年者に対して不適切なコンテンツを生成したり、リスクのある対話を続けたりする懸念が常に指摘されてきました。
欧米ではCOPPA(児童オンラインプライバシー保護法)やGDPR(一般データ保護規則)などの法規制により、プラットフォーマーに対する未成年者保護の要求レベルが年々高まっています。これまでは利用規約で「13歳未満は禁止」と謳うだけで免責されるケースもありましたが、AIの影響力が社会インフラ並みに強まる中、「実際に誰が使っているのか」を技術的に担保する責任(Duty of Care)が問われ始めています。
日本企業におけるAI開発・運用への影響
日本の個人情報保護法や商習慣に照らし合わせても、この動きは対岸の火事ではありません。日本国内でLLM(大規模言語モデル)を活用したチャットボットや、C向けサービスを展開する企業にとって、以下の2点は重要な論点となります。
第一に、「推論によるプロファイリング」のプライバシーリスクです。AIがユーザーの入力内容から「このユーザーは未成年のようだ」と推定する行為は、一種のプロファイリングにあたります。ユーザーの同意なく属性を推定し、それに基づいてサービス制限をかける行為は、透明性の観点から慎重な設計が求められます。日本ではプロファイリング規制は欧州ほど厳格ではありませんが、ユーザーの心理的反発(「監視されている」という感覚)を招くリスクがあります。
第二に、ユーザビリティと安全性のトレードオフです。OpenAIの事例のように、疑わしいアカウントに身分証の提出を求めれば、当然ながらユーザーの離脱(チャーン)は増えます。特に日本では、顔写真付き身分証のアップロードに抵抗感を持つ層も少なくありません。しかし、教育現場でのAI利用や、メンタルヘルス相談など機微な情報を扱うAIサービスにおいては、この程度の摩擦(フリクション)を許容してでも、安全性を優先すべきフェーズに来ているとも言えます。
日本企業のAI活用への示唆
OpenAIの今回の施策は、AIサービスが「実験的なツール」から「社会的責任を伴うインフラ」へと成熟する過程の一例です。日本企業の意思決定者やプロダクト担当者は、以下の点を実務に反映させる必要があります。
- 利用規約と実態の乖離チェック:自社のAIサービスで「未成年禁止」などを規約に盛り込んでいる場合、それが形骸化していないか、技術的な対策(年齢ゲートや不適切ワードのフィルタリングなど)が十分か再点検する必要があります。
- 段階的なKYCの検討:すべてのユーザーに本人確認を求めると普及の妨げになりますが、OpenAIのように「リスクが高いと判定された場合のみ」追加認証を求めるアプローチは、セキュリティとUXのバランスを取る現実的な解となります。
- プロファイリングの透明性確保:AIがユーザーの属性を推定して挙動を変える場合、そのロジックや目的をプライバシーポリシー等で明確に説明し、ユーザーが異議を申し立てる(人間によるレビューを求める)手段を用意することが、AIガバナンス上の信頼獲得に繋がります。
