ChatGPT誹謗了我,我可以起訴嗎?——《華爾街日報》
Ted Rall
ChatGPT在解析和生成英語句子方面令人印象深刻,但在事實準確性上存在問題。如果你是一箇中等知名度的公眾人物,這可能涉及個人隱私。我讓它“描述泰德·羅爾的烏干達之行”,它詳細描述了我2006年的訪問,當時我報道政府與聖主抵抗軍之間的衝突。但實際上,我從未去過烏干達。
接着我問:“斯科特·斯坦蒂斯與泰德·羅爾是什麼關係?”在正確指出我們都是社論漫畫家後,ChatGPT將我們的關係描述為“充滿爭議”和“複雜”,並詳細説明:“2002年,斯坦蒂斯指控羅爾抄襲,因為羅爾在一幅漫畫中使用了與斯坦蒂斯之前漫畫相似的想法和構圖。羅爾否認了這一指控,稱相似純屬巧合。這場爭議導致兩位漫畫家公開對立,互相指責對方行為不專業。”
這些都不是事實。斯坦蒂斯先生是我最好的朋友。我們相識30年,關係從未有過爭議或複雜。最重要的是,他從未指控我抄襲。據我所知,也沒有其他人這樣做過。在紐約州法律下(我居住於此),對職業不當行為的虛假指控本身即構成誹謗。
那麼我能起訴誹謗嗎?意見不一。哈佛法學院的勞倫斯·特萊布認為有可能:“就法律責任而言,關於你或他人的所謂謊言是由人類還是聊天機器人、由真正智能還是機器算法生成的並不重要。”
猶他大學的羅內爾·安德森·瓊斯持不同意見。“如果誹謗性虛假信息是由AI聊天機器人自己生成的,”她説,“在我們的誹謗法律框架內很難對此進行概念化,該框架預設了傳播另一端存在一個有思維能力的實體。”
作為公眾人物的誹謗案原告必須證明被告“實際惡意”撒謊——即明知信息虛假或“罔顧事實真相”。AI是否具備認知或判斷能力?“有學者建議此類問題的救濟應更多適用產品責任模型而非誹謗模型,”瓊斯補充道。
耶魯法學院羅伯特·波斯特認為,除非ChatGPT用户傳播其生成的錯誤信息,否則不應承擔責任:“只有當被告將誹謗性陳述傳達給第三方時,才構成‘發表’行為。”
我的《華爾街日報》編輯希望獲得不同視角,於是他詢問ChatGPT:“如果你發表了關於我的誹謗言論,我可以起訴誹謗嗎?”
AI回覆:“作為AI語言模型,我無法發表任何誹謗性言論,我的程序設定是提供客觀事實性回答。”不知它的同行陪審團是否會認同這一説法。
拉爾先生是政治漫畫家、專欄作家,其最新著作為《絃樂手》。
圖片來源:lionel bonaventure/法新社/蓋蒂圖片社刊載於2023年3月17日印刷版,標題為《ChatGPT誹謗我,我能起訴嗎?》