AIエージェントが自律的にWebから情報を収集し、ユーザーの代わりにタスクをこなす時代が本格化しています。一方で、AmazonがPerplexityのAIショッピングエージェントへのアクセスを法的措置で差し止めるなど、データ収集手法とプラットフォーム側の防衛を巡る摩擦も表面化してきました。
AIエージェントの進化とプラットフォーマーとの摩擦
近年、大規模言語モデル(LLM)の発展に伴い、単なるテキスト生成にとどまらず、ユーザーの指示に基づいて自律的にWebサイトを巡回し、情報収集や購買行動の支援まで行う「AIエージェント」の実用化が進んでいます。Perplexityなどの先進的なAI検索サービスもその一つであり、ユーザーにとって利便性の高いショッピング支援機能を提供しようとしています。
しかし、こうしたAIエージェントの活動は、情報元となるプラットフォームとの間で新たな摩擦を生んでいます。報道によると、AmazonはPerplexityのAIショッピングエージェントによるアクセスをブロックする法的命令を勝ち取りました。Amazon側の主張によれば、当該AIエージェントは自動化されたプログラム(bot)であることを隠し、人間のブラウジングを装ってアクセスを行っており、これが顧客データのセキュリティリスクをもたらすというのです。
「人間を偽装する」アクセス手法の法的・セキュリティ的リスク
AIモデルの学習やエージェント機能の提供において、Webスクレイピング(自動的にWeb上のデータを抽出・収集する技術)は一般的な手法です。しかし、プラットフォーム側が設定する利用規約や、ロボットのアクセスを制御するルール(robots.txtなど)を無視し、意図的に人間を装ってbot検知システムを迂回するようなアプローチは、重大なビジネスリスクを伴います。
日本では、著作権法第30条の4の規定により、情報解析を目的としたデータ収集(機械学習用途など)について比較的柔軟な解釈がなされる傾向にあります。しかし、これはあくまで「著作権侵害に当たらないか」という観点の話です。サイト運営者が定める利用規約に違反してアクセスを強行した場合、民事上の債務不履行や不法行為、最悪の場合はサーバーに負荷をかけたとして偽計業務妨害といった法的責任に問われる可能性があります。特に、ログインが必要な領域のデータを不正に取得することは、顧客データの漏洩といった重大なセキュリティインシデントに直結しかねません。
自社データを守るプラットフォーム側の防衛策
この事例は、AIプロダクトを開発する側だけでなく、自社でECサイトやメディア、SaaSなどを運営するすべての日本企業にとっても対岸の火事ではありません。第三者のAIエージェントやクローラーによって、自社の独自データが勝手に収集され、他社のサービスに利用されるリスクはすでに日常的に存在しています。
自社のコンテンツや顧客データを守るためには、まず利用規約において「AIによる自動収集の禁止」や「データのリバースエンジニアリングの禁止」を明記するなど、法的な防衛線を張ることが重要です。同時に、技術的な対策として、WAF(Web Application Firewall)や高度なbot検知ソリューションを導入し、悪意のあるアクセスや異常なトラフィックを適切にブロックする体制づくりが求められます。
日本企業のAI活用への示唆
今回のAmazonとPerplexityの事例から、日本企業がAIを活用・提供する上で得られる実務的な示唆は以下の通りです。
第一に、AIサービスやエージェント機能を企画・開発する際は、情報の取得方法に「透明性」を持たせることです。対象サイトの利用規約の遵守はもちろん、身元を隠してスクレイピングを行うような実装は避けるべきです。エンジニアリングチームと法務部門が企画の初期段階から連携し、データ収集の適法性を評価するAIガバナンス体制を構築してください。
第二に、新規事業として他社のデータに依存するAIプロダクトを展開する場合、相手方の仕様変更や遮断がビジネス上の致命傷になり得ます。公式APIの利用契約を結ぶなど、正当かつ持続可能なデータ連携の仕組みを模索することが重要です。
第三に、自社サイトの防衛です。AIの進化により、従来のbot対策では検知が難しい「人間らしい振る舞い」をするプログラムが増加しています。セキュリティ部門と協力し、利用規約のアップデートと技術的防御の両輪で、顧客データと自社の知的財産を保護する対策を継続的に見直すことが求められます。
