オーストラリアの病院で、看護師がChatGPTを用いて薬の投与量を計算している実態が報じられました。人命に関わる業務での生成AIの無断利用が浮き彫りにする「シャドーAI」のリスクと、日本企業が構築すべきガバナンスのあり方について解説します。
医療現場で露呈した生成AIの非正規利用
近年、生成AIの業務活用が急速に進む一方で、現場のスタッフが組織の許可なくAIツールを利用する「シャドーAI」が世界的な課題となっています。オーストラリアのロイヤル・ダーウィン病院では、過酷な労働環境のなか、看護師などのスタッフがYouTubeやChatGPTを利用して医療手順を自己学習したり、あろうことか薬の投与量を計算したりしている実態が内部告発によって明らかになりました。
大規模言語モデル(LLM)は、確率に基づいて自然な文章を生成する技術であり、厳密な数値計算や論理的推論を単独で行うことには適していません。もっともらしい誤情報を出力する「ハルシネーション」のリスクがあるツールを、人命に直結する投薬計算に用いることは極めて危険な行為です。しかし、このニュースを単なる「リテラシー不足の事例」として片付けることはできません。ここには、どの国の、どの産業でも起こり得る構造的な問題が潜んでいます。
「禁止」だけでは防げないシャドーAIと現場のジレンマ
日本国内においても、医療、介護、建設、物流など、多くの現場で深刻な人手不足が続いています。業務量が膨大で、ベテラン層からの十分な教育や指導を受ける余裕がない環境では、現場のスタッフが目の前の課題を解決するために、手元のスマートフォンで手軽に使えるツールに頼ってしまうのは想像に難くありません。
企業や組織がAIの利用を社内規定で一律に禁止したとしても、根本的な業務負担や情報不足が解消されない限り、シャドーAIのリスクを完全に排除することは困難です。特に日本の組織文化においては、現場の「なんとかして業務を回さなければならない」という強い責任感が、結果としてコンプライアンス違反やセキュリティリスク(機密情報の入力など)を引き起こす皮肉な事態を招きかねません。
リスクと限界を理解した安全な環境の提供
このような事態を防ぐため、組織の意思決定者や情報システム部門は、現場のニーズを的確に把握し、安全に利用できる公式な環境を提供する必要があります。たとえば、入力したデータがAIの学習に利用されないエンタープライズ向けの生成AI環境を整備することは第一歩です。
さらに、クリティカルな業務においては、汎用的なChatGPTをそのまま使わせるのではなく、業務要件に合わせたシステム設計が求められます。先述の投薬計算のようなタスクであれば、LLMに計算させるのではなく、既存の計算システムへの入力補助や、社内の承認済みマニュアルを正確に検索して回答するRAG(検索拡張生成)技術を組み合わせるなど、システム側で安全網(ガードレール)を構築することが実務上のセオリーとなります。日本では厚生労働省などが医療機関向けのサイバーセキュリティガイドラインやAI導入に関する指針を示しており、こうした公的な枠組みに沿った運用設計も不可欠です。
日本企業のAI活用への示唆
今回の事例から、日本企業が学ぶべき実務への示唆は以下の通りです。
第一に、現場におけるシャドーAIの実態把握と、その背景にある業務課題の可視化です。ツールを無断使用している事実を罰するだけでなく、「なぜ非正規のツールに頼らざるを得ないのか」という根本原因(人員不足、教育不足、既存システムの使い勝手の悪さなど)を解決するアプローチが求められます。
第二に、生成AIの特性(得意なこと、苦手なこと)に関する実践的なリテラシー教育です。特に「計算」や「事実確認」におけるLLMの限界を全社レベルで共有し、クリティカルな意思決定や人命・財産に関わる業務への直接的な適用を制限する明確なガイドラインを策定する必要があります。
第三に、業務に即した安全なAIツールの公式提供です。汎用AIをただ導入するのではなく、業務プロセスに組み込まれた専用アプリケーションの形で提供することで、現場の負担を減らしつつ、ガバナンスを効かせたAI活用を実現することが、これからの日本企業にとって重要なステップとなるでしょう。
