AIネイティブなITヘルプデスク自動化を目指す米スタートアップRisottoが、シードラウンドで1,000万ドルを調達しました。この動きは、従来のルールベース型チャットボットから、大規模言語モデル(LLM)を中核に据えた次世代の社内サポート体制への移行を示唆しています。本稿では、このトレンドを紐解きながら、日本のIT部門が直面する課題解決に向けた可能性とリスクについて解説します。
「LLM中心型」ITサポートとは何か
AIネイティブなヘルプデスク自動化ソリューションを提供するRisottoが1,000万ドルの資金調達を実施したというニュースは、企業内ITサポートのあり方が大きな転換点を迎えていることを示しています。これまでもITサービスマネジメント(ITSM)ツールには自動化機能やチャットボットが搭載されてきましたが、それらの多くは事前に定義されたシナリオに基づくルールベースのものでした。ユーザーが特定のキーワードを入力しないと正しい回答が得られないなど、柔軟性に欠ける側面がありました。
これに対し、Risottoが提唱する「LLM中心型(LLM-Centric)」のアプローチは、生成AIの高度な自然言語理解能力を前提としています。ユーザーの曖昧な問い合わせ内容から意図を正確に汲み取り、社内のナレッジベースを検索し、時にはシステム設定の変更などの具体的なアクションまでを自律的、あるいは半自律的に実行することを目指しています。
日本企業の「情シス」が抱える課題とAIの親和性
日本企業において、情報システム部門(情シス)は慢性的なリソース不足に悩まされています。「2025年の崖」でも指摘されるレガシーシステムの保守運用に加え、従業員からの「パスワードを忘れた」「VPNにつながらない」といった定型的な問い合わせ対応に多くの時間を割かれています。また、日本特有の「おもてなし」精神やハイコンテクストなコミュニケーション文化により、IT担当者が個別に丁寧な対応を行うことで現場が支えられている側面もあり、これが属人化と担当者の疲弊を招いています。
LLMを活用したヘルプデスクは、こうした日本の課題に対して高い親和性を持ちます。生成AIは、断片的な情報から文脈を補完して回答を生成することに長けており、従来のチャットボットでは対応しきれなかった「ふんわりとした質問」にも対応可能です。これにより、一次対応(Tier 1サポート)の大部分を自動化し、人間の担当者をより複雑で創造的な業務へシフトさせることが現実味を帯びてきます。
導入におけるリスクとガバナンスの重要性
一方で、実務への導入には慎重な検討が必要です。最大の懸念点は、やはりAIによる誤情報の生成(ハルシネーション)とセキュリティリスクです。社内ヘルプデスクでは、従業員の個人情報や機密性の高いセキュリティ設定を扱う場合があります。LLMが誤った手順を教示したり、権限のないユーザーに機密情報を開示したりするリスクは、ガバナンス上の重大な問題となります。
また、AIが回答の根拠とする社内ドキュメント(マニュアルやWiki)が整備されていない、あるいは情報が古い場合、どれほど高性能なLLMを導入しても正しい回答は得られません。いわゆる「Garbage In, Garbage Out(ゴミが入ればゴミが出る)」の問題は、生成AI時代においてより顕著になります。
日本企業のAI活用への示唆
RisottoのようなAIネイティブなソリューションの台頭は、ツールを導入するだけで解決する問題ではありません。日本企業がこの潮流を捉え、実務に活かすためには以下の3点が重要です。
1. ナレッジマネジメントの再評価
AIに学習させる、あるいはRAG(検索拡張生成)で参照させるための社内データの整備が急務です。暗黙知となっていたトラブルシューティングの手順をドキュメント化し、常に最新の状態に保つプロセスを確立することが、AI活用の大前提となります。
2. 「Human in the Loop」の設計
完全にAI任せにするのではなく、AIが生成した回答やアクションプランを人間の専門家が最終確認するフローを組み込むべきです。特に導入初期や、セキュリティに関わる変更操作については、人間による承認プロセスを挟むことでリスクを最小化できます。
3. 期待値のコントロールと段階的導入
「AIが全て解決してくれる」という過度な期待は避け、まずはパスワードリセットやソフトウェアのインストール方法など、回答が明確でリスクの低い領域から適用を開始するべきです。成功体験を積み重ねながら、徐々に適用範囲を拡大していくアジャイルなアプローチが推奨されます。
