GoogleのGeminiに、ChatGPTやClaudeなど他の生成AIからユーザーの設定や前提知識を引き継ぐインポート機能が実装されました。本記事では、この機能が示唆する「マルチLLM時代」の恩恵と、日本企業が直面するデータガバナンス上の課題について解説します。
生成AIの乗り換え障壁を下げる「メモリ移行機能」の登場
Googleが提供する生成AI「Gemini」に、競合サービスであるChatGPTやClaudeからユーザーのパーソナルコンテキスト(設定や記憶情報)をインポートする新機能が追加されたことが報じられました。「メモリ(記憶)機能」とは、ユーザーの職業、好みの文章トーン、よく使うフォーマットなどの前提知識をAIが記憶し、毎回詳細な指示を入力せずともパーソナライズされた回答を出力する仕組みです。これまでは各AIサービス内で閉じていたこの記憶情報が、サービスをまたいで移行可能になったことは、生成AIの利便性において大きな転換点と言えます。
マルチLLM時代におけるスイッチングコストの低下と恩恵
現在、企業や開発現場では、用途やタスクの特性に応じて複数の大規模言語モデル(LLM)を使い分ける「マルチLLM」のアプローチが主流になりつつあります。しかし、特定のAIサービスを使い込むほど、そのAIに蓄積された業務の前提知識やプロンプトの工夫が手放せなくなり、結果として特定のベンダーに縛られてしまう「ベンダーロックイン」の懸念がありました。
今回のGeminiのアップデートに代表されるように、コンテキストの移行が容易になれば、ユーザーのスイッチングコスト(乗り換えにかかる手間や時間)は大幅に低下します。日本企業にとっても、日進月歩で進化を続ける各社の最新モデルを柔軟に比較・検討し、自社の業務効率化やプロダクトへの組み込みにおいて、その時々で最適なAIを迅速に採用しやすくなるという大きなメリットがあります。
日本企業が直面するデータガバナンスとセキュリティの課題
一方で、このデータポータビリティの向上は、企業に新たなガバナンス上の課題を突きつけます。日本の商習慣や組織文化においては、顧客情報や社内機密の取り扱いに関するコンプライアンスが非常に厳格に求められます。もし従業員が、個人向けのアカウントで業務上のプロジェクト背景や社内用語をAIに「記憶」させ、それを別のAIサービスへ自由に持ち出せてしまうと、意図しない情報漏洩や、会社が把握していないITツール利用(シャドーAI)の蔓延を招く恐れがあります。
企業は、個人の裁量に任せたAI利用のリスクを再認識する必要があります。入力データがAIの学習に利用されないエンタープライズ版(法人向け契約)の導入を進めるとともに、AIに記憶させるべき機密情報とそうでない一般的な好みの設定とを切り分けるなど、社内ガイドラインを技術の実態に合わせてアップデートすることが急務です。
日本企業のAI活用への示唆
第一に、特定モデルに依存しない柔軟なアーキテクチャ・運用方針の策定です。コンテキストのポータビリティが高まる中、企業は一つのAIサービスに固執するのではなく、マルチLLMを前提とした業務設計や、システム開発時のAPIの抽象化(どのモデルでも柔軟に差し替え可能な設計)を進めるべきです。
第二に、業務知識の「組織的な資産化」とガバナンスの両立です。従業員個人のAIアカウントのメモリ機能に業務の前提知識を属人化させるのではなく、RAG(検索拡張生成:社内データベースなどの外部情報をAIに参照させる技術)を活用し、組織としてセキュアにナレッジを管理・連携する仕組みの構築が求められます。
第三に、実効性のある社内ルールの浸透です。技術の進化によってデータの移動が容易になるほど、システム的な制限だけでは防ぎきれないリスクが生じます。法人向けプランの適切な権限管理と併せて、現場の従業員が納得して遵守できる、日本の企業風土に合った現実的なセキュリティ教育と啓蒙を継続していくことが不可欠です。
