
Photo by Saúl Bucio on Unsplash
法廷書類のAI生成エラーが弁護士たちに法的トラブルをもたらす
昨日ロイターが共有した報告書によれば、AIの「幻覚」―生成型AIモデルによって生み出されるエラーや作り話となる情報―がアメリカの裁判所で法的問題を引き起こしているということです。
急いでいる方へ、ここがポイント!
- Morgan & Morganは、AIのリスクについて警告するメールを1,000人の弁護士に送りました。
- 最近では、Walmartの弁護士が自身の訴訟にAIを使用していることを認めたケースが法律界に警鐘を鳴らしています。
- 近年、裁判所の陳述でチャットボットの幻覚を利用することが繰り返し問題となっています。
今月、法律事務所モーガン&モーガンは、チャットボットの使用と人工知能によって生成された偽のケースのリスクについて、1000人以上の弁護士に警告のメールを送りました。
数日前、ワイオミング州の二人の弁護士が、AIが生成した偽の訴訟案件をWalmartに対する訴訟の申立書に含めたことを認め、連邦裁判官は彼らに制裁を科すと脅しました。
昨年12月、スタンフォード大学の教授でありデマ情報専門家のジェフ・ハンコック氏はAIを使用して法廷宣誓引用を捏造し、州の2023年法の違反を防御するための彼の声明の一部として使用したと非難されました。この法律は、選挙への影響を与えるためにディープフェイクを使用することを犯罪化しています。
ここ数年間に渡り、このような事例が複数起きており、法的な摩擦を生み出し、裁判官や訴訟当事者に迷惑をかけています。Morgan & MorganとWalmartは、この問題についてコメントを控えることを選びました。
生成AIは弁護士の調査時間を削減するのに役立っていますが、その幻覚が大幅な費用を伴う可能性があります。昨年、トムソンロイターの調査では、弁護士の63%が仕事でAIを使用し、12%が定期的に使用していることが明らかになりました。
昨年、アメリカ弁護士協会は、40万人の会員に対し、弁護士の倫理規則を再度確認するように促しました。これには、裁判所提出書類の全情報を支持する弁護士を含み、AIが生成した情報についても、それが意図しないものであったとしても、それが含まれることを示しました。例えばハンコックのケースがそれに該当します。
「弁護士がChatGPTやその他の生成AIツールを使用して引用を作成し、それを確認せずに使用すると、それはただの無能さであり、単純な話です」と、サフォーク大学法学部のディーン、アンドリュー・パールマン氏はロイターに語りました。
数日前、BBCもAIが生成する偽の引用文について警告する報告書を共有しました。また、ジャーナリズムにおけるAIツールの問題点についても触れています。
コメントする
キャンセル