💻 AIの活用にはリスクが伴う──そのことを痛感させる出来事が、アメリカの裁判で発生しました。2024年からクライアントの破産手続きを担当していたセムラド法律事務所の弁護士、トーマス・ニール氏が、AIを使って存在しない判例を引用してしまい、5500ドル(約81万円)の罰金を命じられたのです。さらに裁判所からは「教育的指導を受けるべき」との指示も下されました。

事件の経緯 ⚖️
ニール弁護士は、クライアントの返済計画に異議を唱えた債権者「コロナ・インベスターズ」に対し、
「この債権者には返済計画に異議を申し立てる資格がない」と反論。
その根拠として4件の判例を引用しました。
しかし、担当のマイケル・スレイド判事が調査したところ、驚くべき事実が判明します。引用された判例は次の通りでした。
- 🟢 モントーヤ事件:引用文は実際の記録に存在せず、資格問題についても触れていない
- 🟢 コールマン事件:管轄する州が違う上、引用文は存在せず、資格問題については触れていない
- 🟢 ラッセル事件:こちらも管轄が異なり、引用文の記録が存在しない
- 🔴 ジャガー事件:そもそも存在しない事件
つまり、4件すべてが不適切または架空の判例だったのです。

弁護士の言い訳と反省 🤔
スレイド判事が理由を尋ねたところ、ニール弁護士は ChatGPTを利用したことを認めました。
「引用文についてはAIを使ったが、間違っているとは思わなかった。AIが判例を“でっち上げる”とは考えていなかった」
と説明。
その後は「今後はAIが生成した内容を必ず精査する」と約束し、自らイリノイ州弁護士懲戒委員会に報告したといいます。
事務所側も「人間の検証なしにAIを法律研究や引用文生成に利用することを禁じる」と発表しました。

それでも下された制裁 💸
ニール弁護士と事務所は、
「誤りを認め再発防止を約束し、損害賠償請求も撤回した」
として制裁を避けるよう求めました。
しかしスレイド判事はこう述べました。
- 「クライアント全員に十分なリソースを割けなかったなら、他の事務所に委任すべきで、AIに頼るべきではなかった」
- 「2023年以降、AIのリスクは法曹界で繰り返し議論されており、“知らなかった”は通用しない」
その結果、5500ドルの罰金と、法律教育プログラム(CLE)受講命令が科されました。
さらに、全米破産裁判官会議の「AIの可能性と危険性」に関する会議に、弁護士本人とシニア弁護士が出席するよう命じられています。

今回の制裁が示す教訓 📚
スレイド判事は最後に警告を残しました。
「今回の処分は控えめだ。今後、同じ過ちを犯す弁護士には、さらに重い罰が下されるだろう。」
この一件は、法律分野におけるAI活用のリスクを浮き彫りにしました。
AIは強力なツールですが、検証なしに使えば大きなトラブルにつながることを示しています。
まとめ ✨
- ニール弁護士が存在しない判例をAIから引用
- 判事が精査し、全て不適切または架空と判明
- 5500ドルの罰金と教育プログラム受講命令
- 法曹界では「AIのリスクを知らない弁護士は現実を知らない」とまで言われる状況
👩⚖️ 法律の世界におけるAI活用は便利である一方、責任を持った検証が不可欠であることを強く示す事例となりました。
