2025年12月、ニューヨーク州でAIの安全性を規制する「RAISE Act」が署名されました。大規模なAI開発者に対し、安全プロトコルの公開とインシデント報告を義務付けるこの法律は、米国内だけでなく、グローバルに展開する日本企業のAIガバナンスにも少なからぬ影響を与えます。本記事では、このニュースを起点に、実務者が押さえるべきリスク管理とコンプライアンスの要点を解説します。
ニューヨーク州が踏み切った「AI安全性」の義務化
米国ニューヨーク州のキャシー・ホークル知事が署名した「RAISE Act」は、AIの安全性に関する議論が、単なる「理念」から「法的義務」へと移行していることを象徴する出来事です。この法律の核心は、大規模なAIシステムを開発・提供する事業者に対し、主に以下の2点を義務付けている点にあります。
一つは、どのような安全対策(セーフティプロトコル)を講じているかの情報公開です。そしてもう一つは、安全性に関わる重大なインシデントが発生した際、72時間以内に州当局へ報告することです。サイバーセキュリティ分野では一般的となっている「迅速な報告義務」が、AIモデルの挙動や安全性に関しても適用され始めたことを意味します。
「ソフトロー」から「ハードロー」へ向かう世界の潮流
日本国内では、現時点では総務省や経済産業省による「AI事業者ガイドライン」を中心とした、法的拘束力のない「ソフトロー(自主規制)」のアプローチが主流です。しかし、EUの「AI法(EU AI Act)」の施行や、今回のニューヨーク州のような米国州レベルでの法制化(ハードロー化)の動きは、グローバル市場におけるゲームのルールを変えつつあります。
特に米国では、連邦レベルでの包括的な規制が難航する一方で、州レベルでの規制強化が進んでいます。これは、米国でビジネスを展開する日本企業にとって、州ごとに異なるコンプライアンス要件に対応しなければならないという複雑な課題(パッチワーク状態の規制対応)を突きつけています。
日本企業の実務:サプライチェーンとしてのAIリスク
「自社はニューヨークでAI開発をしていないから関係ない」と考えるのは尚早です。現在のAIエコシステムは複雑に絡み合っています。日本企業が業務効率化や新規サービス開発のために利用しているLLM(大規模言語モデル)や生成AIツールの多くは、米国のテック企業によって開発されています。
開発元の企業がニューヨーク州の規制に対応するために、サービス規約(ToS)やサービスレベル契約(SLA)を変更したり、安全対策のために特定のユースケースを制限したりする可能性があります。つまり、日本のユーザー企業であっても、利用しているAIモデルが「どの国の、どの規制の影響を受けるか」を把握していない場合、突然の仕様変更や利用制限といったサプライチェーンリスクに直面することになります。
ガバナンスとイノベーションの両立に向けて
法規制への対応は、一見するとイノベーションの阻害要因に見えるかもしれません。しかし、実務的な観点からは「安全性の可視化」は、社会受容性を高めるために不可欠なプロセスです。
日本企業においても、AIを活用したプロダクトを開発する際には、単に精度を追求するだけでなく、「予期せぬ挙動をした際にどう検知し、どう対処するか」というMLOps(機械学習基盤の運用)やAIガバナンスの体制構築が急務です。特に、72時間以内という厳しい報告期限が海外で設けられた事実は、日本国内の運用においても、インシデント対応のスピード感が問われるようになる予兆と言えるでしょう。
日本企業のAI活用への示唆
今回のRAISE Act成立を受け、日本の経営層やAI実務責任者は以下の点を再確認する必要があります。
- グローバル規制のモニタリング強化:EUや米国の主要州における規制動向は、将来的な日本の法規制や国際標準の先取りとなる可能性があります。法務・知財部門と連携し、最新の規制マップを更新し続ける必要があります。
- ベンダーリスク管理の徹底:自社が採用しているAIモデルやサービスの提供事業者が、こうした規制にどう対応しているかを確認してください。特に、重大なインシデントが発生した際、ベンダーから自社へ速やかに情報共有がなされる契約となっているかを見直すことが重要です。
- 「説明責任」への準備:自社開発・自社利用のAIであっても、「どのような安全策を講じているか」をステークホルダーに説明できるドキュメント(モデルカードやシステムカードなど)を整備することは、法的義務の有無に関わらず、企業への信頼性を担保するための必須要件となりつつあります。
