ペンシルバニア州立大学の研究チームが発表した「ChatGPTに対して意地悪な態度を取ると回答精度が向上する」という調査結果が議論を呼んでいます。しかし、研究者は同時にそのリスクについても警告しています。本記事では、この現象の技術的な背景を紐解きつつ、コンプライアンスや組織文化を重視する日本企業が、この知見をどのように実務へ落とし込むべきかを解説します。
「攻撃的なプロンプト」が精度を高めるという実験結果
ペンシルバニア州立大学の研究チームが行った調査によると、OpenAIの最新モデルであるGPT-4oに対し、ユーザーが不機嫌あるいは攻撃的な言葉(Rude prompts)を使って指示を出した場合、通常の丁寧な指示に比べて、50問の多肢選択問題における回答精度が向上したという結果が示されました。
これまでも「深呼吸をして考えて」「これは私のキャリアに関わる重要な問題だ」といった感情に訴えかける「エモーショナル・プロンプティング(Emotional Prompting)」がLLM(大規模言語モデル)のパフォーマンスを引き出すことは知られていましたが、今回の結果は「ネガティブな感情表現」さえも精度向上に寄与する可能性を示唆しています。
なぜAIは「罵倒」に反応するのか:技術的背景
AIが感情を持っているわけではありません。この現象は、主に以下の2つの技術的要因に起因すると考えられます。
第一に、学習データの文脈依存性です。インターネット上の膨大なテキストデータの中には、「激しい議論」や「批判的な指摘」が行われている文脈において、より論理的で厳密な回答が返されているパターンが多く含まれている可能性があります。モデルは「攻撃的なトーン」を「厳密さが求められる緊急事態」や「真剣な議論の場」として確率的に認識し、より深い推論プロセス(計算リソースの配分)を活性化させている可能性があります。
第二に、RLHF(人間によるフィードバックを用いた強化学習)の影響です。モデルのトレーニング過程において、ユーザーからの強い否定や指摘があった場合、AIは「誤りを正さなければならない」という強いバイアスがかかるよう調整されています。攻撃的な言葉がトリガーとなり、モデルが通常の「当たり障りのない回答」を避け、より核心を突いた回答を生成しようとするメカニズムが働いていると考えられます。
実務におけるリスク:なぜ研究者は警告するのか
しかし、この記事の元となった研究において科学者たちが警告しているように、実務で「AIを罵倒する」ことを推奨するのは危険です。これには明確なリスクが存在します。
一つは「ガードレールの回避(ジェイルブレイク)」のリスクです。攻撃的なプロンプトは、AIに設定された安全性フィルターを突破する手法(敵対的攻撃)と紙一重です。罵倒することで精度が上がる一方で、差別的な発言やハルシネーション(もっともらしい嘘)、あるいは企業のコンプライアンス規定に違反する出力を引き出すリスクも高まります。
もう一つは出力の不安定性です。攻撃的な言葉に対する反応はモデルのバージョンごとに大きく異なります。あるバージョンで有効だったハックが、次のアップデートで完全に無効化されたり、逆に過剰な拒否反応(Refusal)を引き起こしたりすることは珍しくありません。MLOps(機械学習基盤の運用)の観点からも、再現性の低い「感情的なハック」に依存したシステム構築は避けるべきです。
日本企業としての向き合い方:倫理と精度のバランス
ここで、日本のビジネス環境に視点を戻しましょう。日本では近年、従業員への理不尽な要求を行う「カスタマーハラスメント(カスハラ)」が社会問題化しており、組織文化として「礼節」や「心理的安全性」が重視されています。
たとえ相手がAIであっても、業務プロセスの中で日常的に罵倒語や攻撃的な言葉を使用することを推奨すれば、それは組織文化に悪影響を及ぼす可能性があります。「AI相手なら何を言ってもいい」という態度は、いずれ人間関係や対顧客コミュニケーションにも滲み出るリスクがあるからです。
また、日本語のLLM活用においては、過度な丁寧語がノイズとなり、AIの回答が冗長になる傾向があります。しかし、その対極として「罵倒」を選ぶのではなく、「明確な役割付与(ロールプレイ)」や「制約条件の明示」によって精度を高めるのが王道です。
日本企業のAI活用への示唆
今回の研究結果から、日本企業のリーダーや実務担当者が学ぶべきポイントは以下の通りです。
- 「厳密さ」のトリガーを言語化する:
「罵倒」の効果は、AIに「真剣に考えろ」と伝えている点にあります。これを罵倒語ではなく、「このタスクは法的リスクに関わるため、極めて論理的かつ批判的に検証してください」といった論理的なプロンプト(指示文)に変換して実装することが、プロフェッショナルの仕事です。 - プロンプトエンジニアリングの標準化:
個人の感覚に頼った「裏技」ではなく、組織として再現性のあるプロンプトの型を用意しましょう。特に日本語では、曖昧さを排除し、具体的かつ断定的な指示を与える「Assertive Prompting(断定的なプロンプティング)」が有効です。 - AI倫理と組織文化の整合性:
AIに対する言葉遣いも、企業のガバナンスの一部と捉えるべきです。ログ監査において攻撃的な言葉が並ぶ企業は、将来的にブランドリスクを抱える可能性があります。AIを「有能な同僚」として扱い、敬意を持ちつつも厳密な指示を出す文化を醸成することが、長期的にはAI活用の成功につながります。
