Googleは、ブラウザのタブ情報やチャット履歴をもとにWebアプリケーションを生成する実験的ツール「Disco」を発表しました。最新のGemini 3モデルを搭載したこのツールは、文脈(コンテキスト)を理解し、非エンジニアでも直感的にツールを作成できる環境を提供します。本稿では、この技術が日本のDXや開発現場にもたらす影響と、企業が考慮すべきガバナンス上の課題について解説します。
ブラウザの「文脈」をアプリ化する新たなアプローチ
Googleが新たに公開した「Disco」は、単なるコード生成ツールではありません。最大の特徴は、ユーザーが開いている「ブラウザのタブ」に含まれる情報と、AI(Gemini)とのチャット履歴を統合的に解析し、それを基に機能するWebアプリを構築する点にあります。
従来の開発支援AIは、ユーザーが明確に仕様を指示する必要がありましたが、Discoはユーザーが現在行っているリサーチや作業の「文脈(コンテキスト)」を読み取ります。例えば、複数の競合製品のページを開いている状態で「比較ツールを作って」と指示すれば、タブ内の情報を構造化し、比較アプリとして出力するといった挙動が想定されます。生成後もチャットを通じて継続的に改善(リファイン)が可能であり、アジャイルな開発体験を非エンジニア層にも広げる可能性を秘めています。
「シチズンデベロッパー」の台頭と日本企業のDX
日本国内ではIT人材の不足が深刻化しており、現場部門(LOB)が自ら業務課題を解決する「シチズンデベロッパー(市民開発者)」の育成が急務となっています。Discoのようなツールは、この流れを加速させる強力な武器となり得ます。
例えば、営業企画部門が市場調査データをもとに簡易的なダッシュボードを作成したり、総務部門が社内規定のタブを開きながらFAQアプリを即座に構築したりといったシナリオが考えられます。外部ベンダーや社内のIT部門に依頼するほどではない「隙間業務」の効率化において、現場主導のDX(デジタルトランスフォーメーション)を推進する起爆剤になるでしょう。
「野良アプリ」のリスクとセキュリティガバナンス
一方で、こうしたツールの導入は企業にとって新たなリスクも伴います。最も懸念されるのは、管理されていない「野良アプリ(シャドーIT)」の増加です。AIによって容易にアプリが作れるようになれば、セキュリティ要件を満たしていないツールが社内で乱立し、データのサイロ化や情報漏洩のリスクが高まります。
また、Discoはブラウザ上の情報を読み取るため、機密情報が含まれる社内システムや顧客データのタブが開かれた状態で生成を行うと、意図せず機密データがAIモデル側に送信されたり、生成されたアプリ内にハードコード(直接埋め込み)されたりする危険性も否定できません。日本企業特有の厳格なコンプライアンス基準に照らし合わせると、導入には明確なガイドライン策定が不可欠です。
日本企業のAI活用への示唆
今回のGoogle Discoの事例から、日本企業の実務担当者が押さえるべきポイントは以下の3点です。
1. プロトタイピングツールとしての活用
本格的なシステム開発の前に、要件定義のすり合わせやPoC(概念実証)としてAI生成アプリを活用することで、ベンダーへの発注精度を高め、手戻りを防ぐことができます。
2. 生成AI利用ガイドラインの再点検
「テキストや画像の生成」だけでなく、「実行可能なコードやアプリの生成」までを見据えたガイドラインが必要です。特にブラウザ上のデータ取り扱い範囲や、生成物の権利・保守責任(誰がメンテナンスするのか)を明確にする必要があります。
3. エンジニアの役割の変化
コードを書く作業自体がAIに代替されていく中で、エンジニアには「AIが生成したコードの品質評価」や「セキュリティ監査」、そして「AIに適切なコンテキストを与える設計能力」がより求められるようになります。組織として、こうしたスキルセットの転換を支援する体制づくりが重要です。
