OpenAIがChatGPTにおいて、会話履歴を残さずに個人の設定(カスタマイズ)のみを維持する新しい「Temporary Chat(一時的なチャット)」機能をテストしていると報じられています。セキュリティ意識の高い日本企業にとって、この機能は「利便性」と「機密保持」のバランスをどう取るべきかという、新たな問いを投げかけています。
「履歴オフ」のジレンマと利便性の低下
生成AIの業務利用が進む日本国内において、多くの企業が直面している課題の一つが「データ学習」への懸念です。情報漏洩や自社のノウハウがAIの学習データとして使われることを防ぐため、多くの組織ではChatGPTの「チャット履歴とトレーニング」をオフにする設定(オプトアウト)を従業員に推奨、あるいは義務付けています。
しかし、これには大きな副作用がありました。履歴をオフにすると、同時にユーザー独自の指示設定(Custom Instructions)や、過去の文脈を記憶する機能(Memory)まで無効化されるケースが多く、AIが「素の状態」に戻ってしまうのです。結果として、毎回「私は〇〇社のエンジニアで、Pythonを使っており…」といった前提条件を一から入力しなければならず、業務効率が著しく低下するというジレンマが生じていました。
カスタマイズを維持したままの「一時的な会話」
今回PCWorldなどで報じられた新しい「Temporary Chat」のテスト機能は、このトレードオフを解消しようとするOpenAIの意図が見て取れます。報道によれば、この機能は会話の内容自体は保存・学習されないものの、ユーザーが事前に設定した「カスタム指示(Custom Instructions)」などのパーソナライズ要素は維持されるといいます。
これは、いわばブラウザの「シークレットモード」でありながら、ログイン状態やユーザー設定は一時的に引き継いでくれるような挙動です。これにより、ユーザーは「機密性の高い内容を扱うため履歴は残したくないが、自分の役割や出力形式の好みは踏まえてほしい」という、実務上の細かなニーズに対応できるようになります。
日本企業における「シャドーAI」リスクへの懸念
一見すると便利なこの機能ですが、組織の管理者視点では注意が必要です。このような「個人設定を保持した一時チャット」が使いやすくなると、従業員が「履歴に残らないから大丈夫だろう」と過信し、個人アカウント(無料版やPlus版)で業務上の機密データを入力してしまう「シャドーAI」のリスクが高まる可能性があります。
コンシューマー向けの機能における「データを利用しない」という約束と、法人契約(ChatGPT EnterpriseやAPI経由)における法的なデータ保護保証は、コンプライアンスの観点からは全く別物です。日本の商習慣において、万が一のトラブル時にログ監査ができない「一時的なチャット」を業務の標準とするのは、ガバナンス上、推奨しにくい側面があります。
日本企業のAI活用への示唆
今回の機能テストのニュースを踏まえ、日本企業のAI担当者や経営層は以下の点について検討を進めるべきです。
1. 「履歴オフ」運用の再評価
一律に履歴機能を禁止するだけのルールは、現場の生産性を下げている可能性があります。今回の機能のような「中間的な選択肢」が登場する背景を理解し、業務内容(機密情報の有無)に応じて、利用モードやツール(個人版かEnterprise版か)を使い分けるリテラシー教育が重要です。
2. 監査ログの重要性の再認識
「Temporary Chat」はユーザー側からは履歴が見えなくなりますが、企業としては「誰が何を入力したか」を追跡できないリスクとなります。本格的な業務利用においては、ユーザー個人のプライバシー設定に依存するのではなく、管理者がログを統制できる法人向けプランの導入が、セキュリティとガバナンスの観点から引き続き最適解となります。
3. ユーザー体験(UX)とセキュリティの両立
現場のエンジニアや企画担当者は、セキュリティのために不便さを我慢することを嫌います。AIツールを選定・導入する際は、単に「安全か否か」だけでなく、「設定や文脈を維持しつつ安全に使えるか」というUXの視点を持つことが、形骸化しないAI活用ルールの策定につながります。
