オランダでChatGPTが生成した誓いの言葉が法的要件を満たさず、婚姻が無効になるという事例が発生しました。一見、海外の珍しいニュースのように思えますが、これは契約書や社内規定、公的文書の作成において生成AI活用を進める日本企業にとっても、看過できない重要な教訓を含んでいます。
AIが書いた「誓い」が法的に認められなかった背景
最近、オランダのカップルが結婚式の進行役(オフィシアント)によるスピーチや誓いの言葉にChatGPTを使用したところ、その内容が法的要件を満たしていないとして、婚姻が無効になったというニュースが報じられました。生成AIは流暢で感動的な文章を作成することは得意ですが、特定の国や地域の法律で定められた「必須の宣言」や「厳格な手続き」を正確に理解し、漏れなく反映しているとは限りません。
この事例は、生成AIがあくまで「確率的に尤もらしい文章をつなぎ合わせるツール」であり、法律家のように法源や判例に基づいた論理的判断を行っているわけではないことを痛感させます。特に、法的効力が発生する場面において、AIの出力を鵜呑みにすることのリスクが顕在化した典型例と言えるでしょう。
日本企業における契約・文書業務へのAI活用とリスク
日本国内でも、業務効率化の一環として法務部門や総務部門、あるいは現場のビジネスパーソンが契約書のドラフト作成や条項のチェックにChatGPTなどのLLM(大規模言語モデル)を活用するケースが増えています。しかし、オランダの事例と同様のリスクは日本法の下でも十分に考えられます。
例えば、AIが生成した契約書が、日本の民法や下請法、あるいは業法(特定の業界を規制する法律)の最新の改正に対応していない可能性があります。また、欧米の契約書フォーマットを学習データとして強く反映してしまい、日本の商慣習や法体系にはそぐわない条項(例:過度な損害賠償条項や、日本法では無効となる可能性のある免責条項など)を生成してしまう「ハルシネーション(もっともらしい嘘)」のリスクも依然として存在します。
特に日本では、契約書における用語の定義や「甲・乙」の責任分界点の記述が曖昧だと、後の紛争の種になりかねません。AIは文脈を補完して滑らかな文章を作りますが、法的な厳密性を担保する機能は持っていないことを前提にする必要があります。
「Human-in-the-Loop」の徹底とAIガバナンス
この問題への解は、AIの利用を禁止することではありません。重要なのは、業務プロセスの中に必ず人間の専門家が介在する「Human-in-the-Loop(ヒューマン・イン・ザ・ループ)」の仕組みを組み込むことです。
AIは「ゼロからイチを作るドラフト作成」や「一般的な条項の提案」においては非常に優秀なアシスタントです。しかし、最終的な法的整合性の確認(リーガルチェック)や、企業としての意思決定においては、人間が責任を持つ必要があります。企業は、「AIに任せてよい範囲」と「人間が必ず確認すべき範囲」を明確に定義したガイドラインを策定し、従業員に周知することが求められます。
日本企業のAI活用への示唆
今回のオランダの事例を踏まえ、日本企業がAI活用を進める上で意識すべきポイントは以下の通りです。
1. 生成AIは「起案者」であり「承認者」ではない
契約書、就業規則、対外的な公式発表など、法的拘束力や社会的責任を伴う文書については、AIをあくまで下書き(ドラフト)作成ツールとして位置づけるべきです。AIが作成した内容をそのまま最終版として使用することは、重大なコンプライアンス違反を招く恐れがあります。
2. 日本法および商慣習への適合性チェックの必須化
グローバルなデータで学習されたモデルは、必ずしも日本の法規制に準拠していません。法務担当者や外部弁護士によるレビュープロセスを業務フローから省略しないことが重要です。特に最新の法改正が反映されているかは、人間が確認する必要があります。
3. リスクベース・アプローチによるガイドライン策定
全ての業務で一律にAI利用を制限するのではなく、EUのAI法(EU AI Act)の考え方などを参考に、用途に応じたリスク分類を行うことが推奨されます。社内メールの作成などは低リスクですが、契約締結や人事評価などは高リスクと捉え、より厳格な人の目によるチェックを義務付けるといったメリハリのある運用設計が、DX推進とリスク管理の両立には不可欠です。
