法院文件中的AI“幻覺”給律師帶來麻煩 | 路透社
Sara Merken
一條信息寫着“人工智能”,一台鍵盤和機器手在2025年1月27日拍攝的插圖中可見。路透社/Dado Ruvic/插圖/檔案照片2月18日(路透社)- 美國人身傷害律師事務所摩根與摩根本月向其超過1000名律師發送了一封緊急電子郵件:人工智能可以編造虛假的案例法,在法庭文件中使用虛構的信息可能會導致你被解僱。懷俄明州的一名聯邦法官剛剛威脅要對該事務所的兩名律師進行制裁,因為他們在對沃爾瑪的訴訟中包含了虛構的案例引用。其中一名律師上週在法庭文件中承認,他使用了一個“幻覺”案例的人工智能程序,併為他所稱的無意錯誤道歉。人工智能在案件文件中生成法律虛構的傾向導致全國各地的法院在過去兩年中對至少七起案件質疑或懲戒律師,路透社發現,這給訴訟人和法官帶來了新的高科技麻煩。
沃爾瑪案件之所以突出,是因為它涉及一家知名律師事務所和一個大型企業被告。但自從像ChatGPT這樣的聊天機器人引入人工智能時代以來,類似的例子在各種訴訟中層出不窮,突顯出一種新的訴訟風險。
摩根與摩根的發言人未回應評論請求。沃爾瑪拒絕發表評論。法官尚未裁定是否對沃爾瑪案件中的律師進行懲戒,該案件涉及一款 allegedly 有缺陷的懸浮滑板玩具。
生成性人工智能的進步正在幫助減少律師研究和起草法律文件所需的時間,這導致許多律師事務所與人工智能供應商簽約或自行開發人工智能工具。63%的律師在去年接受路透社母公司湯森路透調查時表示,他們在工作中使用人工智能,12%表示他們定期使用。然而,法律專家表示,生成性人工智能被認為會自信地編造事實,使用它的律師必須謹慎。人工智能有時會產生虛假信息,在行業中被稱為“幻覺”,因為這些模型生成的響應是基於從大型數據集中學習的統計模式,而不是通過驗證這些數據集中的事實。
律師倫理規則要求律師審核並支持他們的法庭文件,否則將面臨紀律處分。美國律師協會去年告訴其40萬名成員,這些義務擴展到“即使是通過人工智能產生的無意錯誤陳述”。安德魯·珀爾曼(Andrew Perlman),薩福克大學法學院院長和使用人工智能增強法律工作的倡導者表示,後果並沒有因為法律研究工具的演變而改變。“當律師被發現使用ChatGPT或任何生成性人工智能工具創建引用而不進行核實時,那就是無能,簡單明瞭,”珀爾曼説。
‘缺乏人工智能素養’
在2023年6月,曼哈頓的一位聯邦法官對律師使用人工智能的早期法庭譴責之一罰款 兩名紐約律師5000美元,因為他們在一起針對航空公司的個人傷害案件中引用了由AI虛構的案例。去年,一位不同的紐約聯邦法官 考慮對涉及邁克爾·科恩的案件實施制裁,科恩是唐納德·特朗普的前律師和顧問,他表示自己錯誤地給自己的律師提供了虛假的案例引用,而該律師在科恩的刑事税務和競選融資案件中提交了這些引用。科恩使用了谷歌的AI聊天機器人Bard,他和他的律師沒有受到制裁,但法官稱這一事件“令人尷尬”。
去年11月,一位德克薩斯州的聯邦法官 命令一名律師在一起錯誤解僱訴訟中引用不存在的案例和引文,支付2000美元的罰款,並參加關於法律領域生成性AI的課程。上個月,明尼蘇達州的一位聯邦法官表示,一位虛假信息專家在承認無意中引用了 虛假的、由AI生成的引用後,已經破壞了他在法庭上的信譽,這起案件涉及對副總統卡馬拉·哈里斯的“深度偽造”惡搞。科羅拉多大學法學院的法律教授哈里·蘇爾登研究AI與法律,他表示建議律師花時間學習“工具的優缺點”。他説,越來越多的例子表明該行業缺乏“AI素養”,但技術本身並不是問題。
“律師在AI出現之前就一直在提交文件時犯錯誤,”他説。“這並不新鮮。”
路透社每日簡報提供您開始一天所需的所有新聞。請在 這裏註冊。
- 建議主題:
- 人工智能