米国の教育現場で、いじめ(サイバーハラスメント)への悪用を理由にChatGPTの利用を禁止する動きが出ています。このニュースは、単なる教育問題にとどまらず、日本企業における「AIハラスメント」や「シャドーAI」のリスク管理、そしてガバナンスのあり方に重要な問いを投げかけています。
ツールの「禁止」か、リスクの「管理」か
米コロラド州のデンバー公立学区(DPS)が、ChatGPTをサイバーいじめ(Cyberbullying)に利用される懸念があるとして、生徒だけでなく職員に対してもツールの利用ブロックを検討し始めたという報道がありました。教育現場において、生成AIが学習の補助ツールとしてではなく、他者を攻撃する文章の生成や、なりすまし等に悪用されるリスクが顕在化していることを示しています。
この事例は、日本企業にとっても対岸の火事ではありません。生成AIの普及に伴い、企業は「業務効率化」という光の部分に目を向けがちですが、組織内での不適切な利用という影の部分にも備える必要があります。
企業内で起こりうる「AIハラスメント」のリスク
生成AIは、指示(プロンプト)次第で、特定の個人を中傷するメールの下書きを作成したり、差別的な文脈を含む評価文を生成したりすることが技術的に可能です。もちろん、OpenAIなどのベンダー側もガードレール(安全装置)を強化していますが、巧妙なプロンプトエンジニアリングによってこれらを回避する手法もいたちごっこで生まれています。
日本企業においては、ハラスメント防止法(労働施策総合推進法)に基づき、パワハラやセクハラへの対策が義務付けられています。もし従業員が生成AIを用いて同僚を攻撃するようなコンテンツを作成したり、差別的なバイアスを含むAI出力をそのまま人事評価や採用活動に利用したりした場合、企業としての管理責任が問われる可能性があります。
「全面禁止」が招くシャドーAIの危険性
DPSの事例のように、リスクを恐れるあまり組織として「全面禁止」を選択するのは、日本企業でもよく見られる反応です。しかし、業務でのAI利用を画一的に禁止することは、かえってセキュリティリスクを高める可能性があります。
会社支給のデバイスやネットワークでアクセスをブロックすれば、従業員は自身のスマートフォンや個人アカウントを使って業務を行おうとするでしょう。いわゆる「シャドーAI(Shadow AI)」の問題です。管理下にない環境で顧客データや機密情報が入力されれば、情報漏洩のリスクは格段に高まります。また、禁止によってAI活用のスキルが組織に蓄積されず、長期的には競争力を損なうことにもなりかねません。
日本企業のAI活用への示唆
今回の事例を踏まえ、日本のビジネスリーダーや実務担当者は以下の点に留意してAIガバナンスを構築すべきです。
1. 就業規則と行動規範のアップデート
既存の就業規則やハラスメント防止規定の中に、AIツールの不適切な利用(他者の権利侵害、中傷、差別の助長など)を禁止事項として明記する必要があります。「AIが生成したから」という言い訳を許さず、最終的な責任は利用する人間にあることを周知徹底しましょう。
2. 「禁止」ではなく「監視と教育」へのシフト
単にアクセスをブロックするのではなく、企業契約のセキュアなAI環境を提供した上で、利用ログを監査可能な状態に保つことが重要です。「見られている」という意識は、悪意ある利用への抑止力になります。また、プロンプトインジェクションなどの攻撃手法や、バイアスリスクに関するリテラシー教育を定期的に実施することが推奨されます。
3. 人間による判断(Human-in-the-loop)の制度化
AIの出力をそのまま他者へのコミュニケーションや意思決定に使うのではなく、必ず人間が内容を確認・修正するプロセスを業務フローに組み込むべきです。特に人事・評価・顧客対応など、対人関係に直結する領域では、AIはあくまで「草案作成」の補助にとどめ、最終的な倫理的判断は人間が行うという原則を崩さないことが、法的・社会的リスクから組織を守ることにつながります。
