大規模言語モデル(LLM)をクラウド経由ではなく、手元のPCなどのエンドポイントで直接実行する「オンデバイスAI」が急速に普及しています。利便性が高い一方で、セキュリティ部門の監視が行き届かない新たなリスクとして浮上しつつあります。本記事では、この動向が日本企業にもたらす影響と実務的な対応策を解説します。
クラウドからエンドポイントへ移行するAI実行環境
生成AIの業務利用において、これまで主流だったのはChatGPTやClaudeといったクラウドベースのAPIやWebサービスを利用する形態でした。しかし近年、AIの推論処理に特化したNPU(Neural Processing Unit)を搭載した「AI PC」や、AppleのMシリーズチップの普及により、ハードウェアの性能が劇的に向上しています。これにより、手元のノートPC環境でも実用的な速度で大規模言語モデル(LLM)を動かすことが可能になりました。
さらに、オープンモデル(無償で公開されているLLM)の軽量化・高性能化が進み、開発者向けの実行ツールも充実してきました。今では、エンジニアがわずかなコマンドを実行するだけで、自身のローカルPC内にLLM環境を構築し、コーディング支援やデータの要約などを日常的に行えるようになっています。
CISOの新たな盲点となる「シャドーAI 2.0」
このオンデバイス(ローカル環境)でのAI実行は、企業のセキュリティ部門やCISO(最高情報セキュリティ責任者)にとって新たな盲点となっています。クラウドサービスを無断で利用する「シャドーIT(またはシャドーAI)」であれば、社内ネットワークの通信ログやWebプロキシを監視することで、ある程度の検知と制御が可能でした。
しかし、オンデバイス推論は一度モデルをダウンロードしてしまえば、その後はネットワーク通信を一切行わずにAIを利用できます。そのため、従業員がどのような機密データをAIに入力し、どのような出力を得ているのか、監査ログが全く残りません。海外のセキュリティ業界では、これを検知困難な新たな脅威として「シャドーAI 2.0」と呼び、警戒を強めています。
オンデバイスAIのメリットと潜むリスク
現場のエンジニアやプロダクト担当者がオンデバイスAIを好むのには明確な理由があります。最大のメリットは、社外秘のソースコードや顧客データを外部のクラウドに送信せずに済むという「データプライバシーの確保」です。また、通信遅延(レイテンシ)がなく、APIの利用コストもかかりません。
一方で、重大なセキュリティリスクも存在します。たとえば、AIモデルの共有プラットフォームからモデルをダウンロードする際、悪意のあるコードが仕込まれたモデル(マルウェア)を誤って実行してしまう「サプライチェーン攻撃」のリスクがあります。また、商用利用が禁止されているライセンスのモデルや、著作権的にグレーなデータを学習したモデルを業務のプロダクト開発に流用してしまうコンプライアンス上の懸念も無視できません。
日本企業のAI活用への示唆
日本の企業文化においては、新しいリスクが発見されると「原則禁止」というルールを即座に敷く傾向があります。しかし、オンデバイスAIの利用を一律に禁止することは、エンジニアの生産性向上やイノベーションの芽を摘むことになりかねません。実務においては、以下のアプローチが求められます。
第一に、社内のAI利用ガイドラインのアップデートです。クラウドAIの利用規定だけでなく、「ローカル環境でのAI実行」に関するルールを明文化し、利用可能な業務範囲や取り扱い可能なデータレベルを定義する必要があります。
第二に、安全なモデルの提供とプロセスの整備です。現場のニーズを無視して制限するのではなく、情シス部門やAIガバナンス部門が安全性を確認した特定のモデルのみを社内のポータルで配布する、あるいはホワイトリスト化するといった「安全に使える道」を用意することが重要です。
第三に、エンドポイントセキュリティの強化です。通信ログに頼らない監視体制として、PC上の不審な振る舞いを検知するEDR(Endpoint Detection and Response)などの仕組みを活用し、悪意のあるAIモデルの実行を防ぐ体制を構築することが求められます。ガバナンスと開発者の生産性を両立させることが、今後のAI活用における重要な競争力となるでしょう。
