生成AIは文章作成や質問応答で目覚ましい成果を上げていますが、複雑なビジネスプロセスにおける「調整」や「交渉」は依然として苦手分野です。元DeepMindの研究者らが立ち上げた「Humans」などの動向を端緒に、AIが単なるツールから、他者と協調して目的を達成する「エージェント」へと進化する流れを解説します。日本の商習慣において、この変化がもたらすインパクトとリスクについて考察します。
「賢いチャットボット」の限界と、その先にあるもの
現在、多くの日本企業が導入しているChatGPTやGeminiなどの大規模言語モデル(LLM)は、主に「情報の圧縮(要約)」や「情報の生成(ライティング・コーディング)」に特化しています。これらは個人の生産性を劇的に向上させましたが、組織全体のワークフローに目を向けると、まだ埋められない溝があります。
それは「調整(Coordination)」です。
ビジネスの現場は、単に正解を出すだけでは回りません。会議の日程調整、プロジェクトの進行管理、利害関係者との合意形成など、相手の意図を汲み取り、状況に合わせて振る舞いを変える「社会的知性」が求められます。元DeepMindやGoogleのエンジニアらが設立したスタートアップ「Humans」が注目されているのは、まさにこの「AIによる調整・協調」を次のフロンティアと定め、テキスト生成ではなく「行動の最適化」を目指すモデルを構築しようとしているからです。
テキスト予測から「行動予測」へ
これまでのLLMは「次に来るもっともらしい単語」を予測する確率モデルでした。しかし、次世代のAIモデル(しばしば「Large Action Model」や「Agentic AI」と呼ばれます)は、目標を達成するために「次にとるべき最適な行動」を予測することに焦点を当てています。
例えば、「来週の定例会議をリスケジュールして」という指示に対し、現在のAIはメールの文面案を作ることはできます。しかし、協調型のAIは以下のようなプロセスを自律的に行うことを目指します。
- 参加者全員のカレンダーを確認し、空き時間を特定する
- 各参加者の優先順位や過去の行動パターン(午前中は会議を避けるなど)を考慮する
- チャットツールで打診し、返答がない人にはリマインドを送る
- 最終的に会議室を予約し、アジェンダを配布する
このように、複数のステップと他者との相互作用(インタラクション)を含むタスクを完遂する能力が、これからのAIには求められます。
「阿吽の呼吸」文化とAIの相性
日本のビジネス環境は、ハイコンテクストなコミュニケーション、いわゆる「空気を読む」文化に支えられています。これは従来のAIにとって最も困難な領域でした。しかし、AIが「調整」に特化し始めると、状況は変わる可能性があります。
特に、日本企業特有の「根回し」や「稟議」といったプロセスは、非効率の象徴とされる一方で、組織の合意形成において重要な機能を果たしています。協調型AIが進化すれば、膨大な社内ドキュメントや過去の意思決定パターンを学習し、「どのタイミングで、誰に、どのような情報を共有しておくべきか」をサジェスト、あるいは代行する「AI秘書」としての役割が期待できます。
人手不足が深刻化する日本において、単なる作業代行ではなく、こうした「コミュニケーションコストの削減」こそが、AI導入の真のROI(投資対効果)になる可能性があります。
自律型AIに伴うリスクとガバナンス
一方で、AIに「調整」や「行動」を委ねることには大きなリスクも伴います。
最大の懸念は、AIが誤った判断に基づいて勝手に行動してしまうことです。チャットボットが嘘をつく(ハルシネーション)程度であれば修正可能ですが、AIエージェントが「誤った金額で発注を確定する」「不適切な相手に機密情報を送信する」といった物理的なアクションを起こした場合、その損害は甚大です。
また、責任の所在も曖昧になりがちです。AIが行った「調整」の結果、取引先とトラブルになった場合、誰が責任を負うのか。日本の法制度や企業コンプライアンスは、まだ「自律的に行動するソフトウェア」を前提としていません。したがって、完全に自動化するのではなく、重要な決定ポイントには必ず人間が介在する「Human-in-the-loop(人間参加型)」の設計が、当面の間は不可欠となります。
日本企業のAI活用への示唆
「調整」や「協調」を重視する次世代AIの登場を見据え、日本の実務者は以下の視点を持つべきです。
1. 業務プロセスの「動詞」を見直す
「書く」「調べる」といったタスクベースのAI活用から、「決める」「調整する」「手配する」といったプロセスベースの活用へ視点を広げてください。自社の業務フローの中で、調整コストが最も高いボトルネックはどこか(例:日程調整、受発注の確認、承認フロー)を特定することが第一歩です。
2. 「空気を読む」データの蓄積
AIに高度な調整をさせるためには、形式知(マニュアル)だけでなく、暗黙知(過去のメール履歴、チャットログ、議事録など)のデータ化が重要です。日本企業に多く眠るこれらの非構造化データを、AIが学習・参照できる形で整備(データガバナンス)しておくことが、将来的な競争力になります。
3. 権限管理の厳格化
AIが「行動」し始めると、セキュリティの考え方も変わります。AIに対して「どのシステムへのアクセスを許可するか」「どの範囲の決裁権を与えるか」という、従業員と同様の権限管理(IAM)が必要になります。ゼロトラストの原則に基づき、AIエージェントの権限を最小限に留める設計を今のうちから検討すべきです。
AIは「賢い辞書」から「頼れる同僚」へと進化しようとしています。この変化をただ待つのではなく、自社の組織文化や商習慣にどう適合させるか、能動的な設計が求められています。
