フィリピン証券取引委員会がCoinbaseやGemini(暗号資産取引所)を含む多数のプラットフォームへのアクセス遮断に動いたというニュースは、単なる暗号資産業界の出来事にとどまりません。国境を越えて提供されるデジタルサービスが、各国の規制当局によって突如として利用停止になるリスクを示唆しています。本稿では、この事例を「プラットフォーム・リスク」として捉え直し、日本企業が海外製生成AIモデル(LLM)を利用する際に考慮すべきガバナンスとBCP(事業継続計画)の視点を解説します。
プラットフォーム規制の強化と「Gemini」の名称による混同
最近の報道において、フィリピン当局がCoinbaseやGeminiを含む約50のプラットフォームへのアクセスをブロックする方針を打ち出しました。ここで留意すべきは、対象となっている「Gemini」はGoogleの生成AIモデルではなく、同名の暗号資産取引所であるという点です。しかし、このニュースはAI活用を進める日本企業にとっても対岸の火事ではありません。
この事例が示唆するのは、グローバルに展開するデジタルサービスであっても、各国の法規制やコンプライアンス基準(ライセンス有無など)に抵触すれば、国家権力によってアクセスが遮断されるという現実です。現在、日本企業が依存しているOpenAIのChatGPTやGoogleのGemini(AI)などのサービスも、基本的には海外サーバーを経由したAPIサービスとして提供されています。これを「可用性のリスク」として再認識する必要があります。
生成AIにおける「ソブリンリスク」と法規制の分断
AI分野においても、世界各国で規制の分断が進んでいます。EUの「AI法(EU AI Act)」、米国のAI大統領令、そして日本の著作権法やAI事業者ガイドラインなど、地域ごとにルールが異なります。もし、あるAIプロバイダーが特定の国の規制要件を満たせないと判断された場合、その国からのアクセスが遮断されたり、逆にプロバイダー側がリスク回避のために特定国へのサービス提供を停止(ジオブロッキング)したりする可能性があります。
例えば、イタリアでは一時的にChatGPTへのアクセスが制限された事例がありました。日本は現在、AI開発・利用に対して比較的寛容な「ソフトロー」のアプローチを取っていますが、将来的にデータプライバシーや偽情報対策の観点から規制が厳格化された場合、海外ベンダーの対応次第ではサービスが利用できなくなるリスクもゼロではありません。
日本企業が取るべき「モデルの多重化」とMLOps戦略
特定の海外プラットフォームに過度に依存することは、経営上のリスクとなります。このリスクを軽減するために、エンジニアやプロダクトマネージャーは以下の対策を検討すべきです。
第一に、「モデルの抽象化」です。アプリケーションとAIモデルの間にレイヤーを設け(LLM Gatewayなど)、バックエンドのモデルをOpenAI、Google、Anthropic、あるいは国産LLMへとスムーズに切り替えられるアーキテクチャを採用することです。これにより、特定サービスの停止や価格改定、規約変更に柔軟に対応できます。
第二に、「ローカルLLMや国産AIの活用」です。機密性が極めて高いデータや、止まってはならない基幹業務においては、海外APIに依存せず、自社環境(オンプレミスやプライベートクラウド)で動作するオープンソースモデル(Llama 3やMistralなど)や、NTT、ソフトバンク、Elyzaなどが開発する日本語特化型モデルの採用を検討するフェーズに来ています。
日本企業のAI活用への示唆
今回の暗号資産プラットフォームへの規制事例から、AI活用において日本企業が得るべき教訓は以下の3点に集約されます。
- 名称と実体の正確な把握:「Gemini」のようにAIと他分野で名称が重複する場合があるため、一次情報を確認し、自社が利用しているサービスへの直接的な影響を見極めるリテラシーが不可欠です。
- BCP(事業継続計画)への組み込み:海外製AI APIの利用停止リスクを想定し、代替モデルの選定や、AI機能が停止しても業務が回るようなフォールバック運用を設計段階で盛り込むことが求められます。
- レギュレーション対応の継続的監視:AI技術だけでなく、提供元の国(主に米国)と利用国(日本)の規制動向を注視し、法務・コンプライアンス部門と連携したガバナンス体制を構築することが、持続可能なAI活用の鍵となります。
