維基百科要用人工智能防止惡意篡改詞條

北京時間12月2日上午消息,維基傳媒基金會正在對軟件進行訓練,使之可以區分無心錯誤和惡意篡改之間的差異,從而降低人們編輯維基百科時所遭受的心理傷害。
該項目的一大動機在於,英語版維基百科的活躍貢獻者數量出現了大幅下滑:過去8年間,這一數字萎縮了40%,目前僅為3萬人。研究表明,該問題源自維基百科複雜的官僚體系,以及他們對新人所犯錯誤的苛刻態度——由於半自動工具的存在,使得刪除新的改動變得非常容易。
維基傳媒基金會高級研究員阿隆·哈爾法克(Aaron Halfaker)幫助該組織發現了這一問題,他目前還在領導一個算法開發項目,以應對這一問題。這套名為“客觀修正評估服務”(ORES)的系統可以通過訓練對維基百科上新增的改動進行評估,並判斷某項改動究竟是善意還是惡意。
維基百科的編輯有很多工具可以查看最近的修改,並且只需要點擊一下即可駁回這些修改。這些工具的初衷是希望在維基百科廣受歡迎後,能夠更好地控制內容質量。但卻引發了很多意想不到得後果。例如,新編輯發現自己貢獻的第一條內容被刪除了,但卻得不到任何解釋。哈爾法克之所以發明ORES,就是希望能夠改進這些工具。
ORES可以引導人們去評估最具破壞性的修改。該軟件還可以幫助編輯用更加得體的方式對待一些無心的錯誤。“我認為,維基百科的員工之所以在控制質量時採取偏激的措施,是因為他們下判斷的速度太快,而且沒有通過人性化方式展開互動。”哈爾法克説,“這款工具可能會提醒編輯,‘如果你要駁回這項修改,或許應該謹慎一些,並向進行修改的人發送一條消息。’”
ORES正在英語、葡萄牙語、土耳其語和波斯語等多個版本中進行測試。想要判斷內容的質量,並區分破壞性編輯和無心的錯誤,就必須從維基百科編輯之前使用的工具中收集數據。負責維護編輯工具的維基百科員工已經開始測試該系統。(書聿)