大規模言語モデル(LLM)によって生成されたパスワードが、わずか数時間で解読可能であるという調査結果が報告されました。業務効率化のために生成AIの活用が進む日本企業において、なぜLLMを「乱数生成器」として扱ってはいけないのか、その技術的背景と実務上のガバナンスについて解説します。
LLMは「サイコロ」ではなく「連想ゲーム」の達人
昨今の生成AIブームにより、文章作成からコード生成まであらゆるタスクをAIに依頼する動きが加速しています。その中で散見されるのが、「強力なパスワードを作って」とLLMに指示するケースです。しかし、セキュリティ研究機関による最近の調査で、LLMが生成したパスワードは極めて脆弱であり、ツールによっては数時間以内に解読可能であることが実証されました。
この事実は、LLMの根本的な仕組みを理解していれば驚くことではありません。LLMは基本的に、膨大なテキストデータから学習し、「次に来る可能性が最も高い単語(トークン)」を予測する確率モデルです。つまり、人間が過去に使用したパスワードのパターンや、言語としての自然な並びを学習しているため、出力される文字列には必然的に「人間らしい規則性」や「統計的な偏り」が含まれます。セキュリティの世界で求められるのは、予測不可能な完全なランダム性(エントロピーの高さ)ですが、LLMは逆に「予測可能な文脈」を作るように設計されているのです。
攻撃者もAIを使って「推測」を効率化する
従来、パスワードのクラッキング(解読)には、辞書攻撃や総当たり攻撃(ブルートフォース)が使われてきました。しかし、生成AIの普及は攻撃者側の手口も進化させています。もし企業内のエンジニアや従業員が一般的なLLMを使ってパスワードを生成している場合、攻撃者も同様のモデルを用いて「AIが出力しがちなパスワードリスト」を作成し、解読を試みるでしょう。
「複雑な条件(記号や数字を混ぜるなど)をプロンプトで指定すれば安全ではないか」と考える方もいるかもしれません。しかし、LLMが学習データ内の「よくある強力なパスワードのパターン」を再現する傾向がある以上、暗号学的に安全な乱数生成器(CSPRNG)を使用する場合に比べて、その探索空間は大幅に狭まります。AIによる生成物は、一見ランダムに見えても、数学的な意味でのランダム性は担保されていないのです。
日本企業における「Shadow AI」とガバナンスの死角
日本企業では現在、ChatGPTやCopilotなどの導入が進んでいますが、多くの組織におけるガイドラインは「機密情報を入力しないこと」に主眼が置かれています。「AIにセキュリティパラメータを作らせないこと」まで具体的に禁止しているケースは稀です。
現場の従業員が「自分で考えるのが面倒だから」という理由で、社内システムの初期パスワードやAPIキーのダミー生成などにLLMを使用してしまうリスクは、決して低くありません。特に、セキュリティ意識の高いエンジニアであっても、テスト環境構築時などに手軽さを優先してAIに頼る可能性があります。これが本番環境に流用された場合、重大なセキュリティホールとなり得ます。
日本企業のAI活用への示唆
今回の事例から、日本企業の意思決定者やリスク管理担当者が学ぶべき教訓は以下の3点に集約されます。
第一に、AI利用ガイドラインの具体化です。単に「情報漏洩」を防ぐだけでなく、「AIが得意なこと・不得意なこと」を明記する必要があります。特に、パスワード生成、暗号鍵の作成、乱数生成といったセキュリティの根幹に関わる処理には、AIではなく専用のツール(パスワードマネージャーや検証済みのライブラリ)を使用するよう、ルールを明確化すべきです。
第二に、従業員へのリテラシー教育の深化です。AIは「魔法の杖」ではなく、あくまで「確率的な言語処理ツール」であることを周知する必要があります。「AIが作ったから複雑で安全だろう」というバイアスを排除し、AIの出力結果を批判的に検証する姿勢(Human in the loop)を組織文化として根付かせることが重要です。
第三に、ゼロトラストを前提とした防御策の徹底です。AIによって生成された弱いパスワードが一部に含まれている可能性を考慮し、多要素認証(MFA)の必須化や、異常なアクセス検知システムの導入など、パスワード単体に依存しないセキュリティ体制を構築することが、AI時代の現実的な解となります。
