Googleが「OpenClaw」などの特定ツール利用者に対し、アカウント停止を含む厳しい措置を講じていることが明らかになりました。生成AI開発におけるデータ収集需要が急増する中、プラットフォーム側の防衛策と利用規約(ToS)の適用が厳格化しています。本記事では、この事例を端緒に、日本企業が直面する「法的権利」と「プラットフォーム規約」のギャップ、および実務上のリスク対策について解説します。
Googleによる「Antigravity」および「OpenClaw」利用者への措置
最近、VentureBeatなどが報じたところによると、Googleは「Antigravity」と呼ばれるプロジェクトや、それに関連する「OpenClaw」等のツールを利用していたユーザーに対し、アカウントへのアクセスを遮断する措置を行いました。Y Combinatorの掲示板やX(旧Twitter)上では、複数のユーザーが突如としてGoogleアカウント(GmailやDriveなどを含む)へアクセスできなくなったことを報告しています。
この背景には、LLM(大規模言語モデル)ブームに伴う過度なデータスクレイピングや、Googleのインフラに対する負荷、あるいは利用規約(ToS)に違反する形での自動化ツールの使用があると見られます。Googleはこれを「悪意ある使用(malicious usage)」と見なし、特定のツールやAPIパターンを検出して、関連するアカウントをBAN(停止)するという強硬手段に出た形です。
「適法」でも「規約違反」になり得るリスク
この事例は、日本のAI開発者や企業にとって極めて重要な示唆を含んでいます。日本では著作権法第30条の4により、情報解析(AI学習など)を目的とした著作物の利用は、営利・非営利を問わず原則として適法とされています。このため、日本は「機械学習パラダイス」とも呼ばれ、データ収集に対して積極的な姿勢をとる企業も少なくありません。
しかし、ここで混同してはならないのが、「法律上の適法性」と「プラットフォームの利用規約」です。たとえ法律がスクレイピングやデータ利用を認めていたとしても、GoogleやAmazon、Microsoftなどのプラットフォーム事業者が定める利用規約で「自動化された手段によるアクセス」や「サービスの妨害」が禁止されていれば、契約違反としてアカウント停止措置を受けるリスクがあります。
今回のOpenClawの事例は、プラットフォーム側が自社のデータ資産やインフラを守るために、外部ツールに対して非常に敏感になっていることを示しています。「法律で許されているから」という理由だけで、グローバルプラットフォーム上でアグレッシブなデータ収集ツールを使用することは、企業の存続に関わるID基盤(メール、ドキュメント、クラウド環境)を一瞬で失うリスクと隣り合わせです。
シャドーAIとガバナンスの盲点
日本企業の現場では、エンジニアやデータサイエンティストが業務効率化やPoC(概念実証)のために、オープンソースの新しいツールやライブラリを個人の判断で試すケースが多々あります(いわゆるシャドーIT、シャドーAI)。
もし、社員が会社のGoogle Workspaceアカウントに紐づいた環境で、今回規制対象となったようなツールを使用していた場合、個人のアカウントだけでなく、組織全体のアカウントやドメインの信頼性に影響が及ぶ可能性もゼロではありません。特にスタートアップや中小企業において、Googleのインフラに業務のすべてを依存している場合、アカウント停止は事業停止と同義になります。
日本企業のAI活用への示唆
今回のGoogleの強硬姿勢を踏まえ、日本の意思決定者や実務者は以下の点を再確認する必要があります。
- 利用規約(ToS)の再確認と遵守: 日本の著作権法が有利であっても、プラットフォームの規約が優先される場面(アカウント停止等の私的制裁)があることを認識し、使用するツールが主要プラットフォームのToSに抵触しないか精査すること。
- ツールのホワイトリスト化と監視: 現場の判断任せにせず、使用するスクレイピングツールや自動化エージェントが、攻撃的あるいはスパム的な挙動をしないか、組織としてガバナンスを効かせること。
- ID基盤のリスク分散: 開発用アカウントと業務用(コミュニケーション用)アカウントを分離するなど、万が一の開発ミスや規約違反判定が、全社の業務基盤を巻き込まないようなアカウント設計を検討すること。
- データ収集戦略の見直し: スクレイピングに過度に依存せず、正規のAPI利用やデータセットの購入など、持続可能でプラットフォームと対立しないデータ収集経路を確保すること。
