生成AIの進化は「文章の作成」から「PC操作の自律実行」へと向かっています。Metaによる従業員のPC操作データ収集の動きを入り口に、次世代AIエージェントの可能性と、日本企業が直面する労務・ガバナンス上の課題を解説します。
AIは「テキスト」から「行動」の学習へ:Metaの新たなデータ収集が意味するもの
米Fortune誌の報道によれば、Metaは自社のAIツールを訓練する目的で、従業員の画面操作やキーストローク(キーボードの入力履歴)のトラッキングを開始する方針です。テック企業が「AIワーカー」と呼ばれる自律型のAIエージェントを構築するために、人間が実際にPC上でどのように仕事を進めているかをデータとして採掘(マイニング)し始めている状況が浮き彫りになっています。
この動きの背景には、AI開発の主戦場が「LLM(大規模言語モデル)」から「LAM(Large Action Model:大規模行動モデル)」へとシフトしている事実があります。AIにテキストを生成させるだけでなく、「ブラウザを開き、社内システムからデータを抽出し、スプレッドシートにまとめてメールで送信する」といった一連のPC操作を自律的に実行させるためには、実際の人間がアプリケーションをどう横断し、どのような判断を下しているかの「文脈を伴う操作データ」が不可欠なのです。
日本の業務環境における期待と「暗黙知」のAI化
日本国内の企業においても、この「人間の行動を学習するAI」は大きな可能性を秘めています。国内では長らく、定型業務の自動化を目的としてRPA(ロボティック・プロセス・オートメーション)が導入されてきました。しかし、画面のレイアウト変更に弱く、少しでも判断が求められる非定型業務には対応できないという限界がありました。
もしAIが熟練した従業員の画面操作やキー入力を学習し、その背景にある「意図」までを理解できるようになれば、状況に応じた柔軟な業務実行が可能になります。日本企業にありがちな「特定の担当者しか使いこなせない社内システム」や「部署間の複雑な調整プロセス」といった属人化した暗黙知を、AIモデルとして形式知化・資産化できる可能性があるのです。
従業員データの収集に伴うリスク:法規制と組織文化の壁
一方で、操作データの収集とAI学習への転用には、重大なコンプライアンス要件とリスクが伴います。特に日本企業において留意すべきは、労働法制や個人情報保護法との整合性、そして「組織文化への影響」です。
第一に、画面キャプチャやキーストロークの取得は、従業員から「過度な監視(モニタリング)」と受け取られかねません。導入にあたっては、就業規則の改定や労使協定の締結、あるいは従業員からの明確な同意取得が不可欠となるケースが多いでしょう。第二に、画面上には取引先の機密情報、顧客の個人情報、あるいは人事情報など、AIの学習データに含めるべきではないセンシティブな情報が頻繁に映り込みます。これらを学習前に自動でマスキング・除外するデータガバナンスの仕組みがなければ、重大な情報漏洩リスクにつながります。
さらに、日本の組織文化においては「監視されている」という心理的負担が、従業員のモチベーションやエンゲージメントを著しく低下させる懸念もあります。AI活用の目的が「従業員の監視や評価」ではなく、「業務負荷の軽減と支援」であることを明確に社内コミュニケーションする必要があります。
日本企業のAI活用への示唆
Metaの事例は、次世代のAI開発において「社内の実際の業務データ」が極めて高い価値を持つことを示しています。日本企業が今後、AIを活用して業務の抜本的な効率化や自社プロダクトの価値向上を図るうえで、以下の3点が実務的な示唆となります。
1. 「行動データ」を将来の資産と捉える:マニュアルなどのテキストデータだけでなく、システム上の操作ログやワークフローの履歴といった「行動データ」も、今後のAI(エージェント)に業務を学習させるための重要な社内資産になります。将来を見据えたログの保存・管理基盤の整備を検討すべきです。
2. 透明性の高いデータガバナンスと労使の合意形成:社内データをAIに学習させる際は、機密情報の保護(マスキング技術の導入など)と合わせ、従業員に対する透明性の確保が必須です。何のためにデータを集め、どうAIに学習させ、どのように従業員に還元するのか、丁寧な合意形成のプロセスがプロジェクトの成否を分けます。
3. 業務の標準化がAI活用の前提となる:どんなに優秀なAIであっても、無駄が多く非効率な業務プロセスをそのまま学習させれば、非効率なAIワーカーが誕生するだけです。AIに「何を学習させるか」を見極める前に、まずは既存の業務プロセスの見直しと標準化を進めることが、地に足の着いたAI活用の第一歩となります。
