捕食者利用人工智能工具描繪兒童性虐待 - 彭博社
Margi Murphy
攝影師:Chris Ratcliffe/Bloomberg兒童色情者正在利用生成式人工智能技術在網上分享虛假的兒童性虐待材料,並交流如何避免被檢測到,根據美國國家失蹤和被剝削兒童中心的警告和彭博新聞報道的信息。
舉例來説*,*在今年頭四個月,一家知名兒童侵害論壇的用户分享了68套人工生成的兒童性虐待圖像,這是根據內容審核初創公司ActiveFence的兒童安全和人類剝削負責人Avi Jager的説法。Jager表示,這一數字比ActiveFence在2022年最後四個月觀察到的25篇帖子有所增加,但出於安全考慮,他拒絕透露論壇的名稱。
ActiveFence在週二發佈的一份報告中表示,這些圖像似乎是由人工智能技術創建的,不顯示真實的受害人。
2022年,美國國家失蹤和被剝削兒童中心的網絡舉報系統收到了超過3200萬份涉嫌兒童性剝削的舉報。幾乎所有舉報都涉及明顯的兒童性虐待材料,或CSAM。這個舉報系統是由國會設立的非營利組織運營的,用於報告美國的兒童剝削情況。
論壇用户已經“數千次”發佈關於如何使用所謂的GenAI工具來生成其他具有捕食性的內容,包括幫助創建虛假人物以贏得未成年人信任的腳本,以及在哪裏找到易受攻擊的目標的提示。
根據該組織的首席法律官Yiota Souras的説法,利用這種新興技術生成描繪兒童性虐待的令人不安的圖像,正值NCMEC每天已經收到大約8萬份關於傳統照片和虐待內容的報告。
“我們正處於新事物的邊緣,”她説。
儘管Souras警告稱,尚未出現壓倒性的激增,但她表示,隨着公司努力清除其平台上與CSAM相關的材料,他們現在將遭遇由算法生成的性虐待圖像的浪潮。
“我們預計這將變得更加嚴重,”Jager説。“這才剛剛開始。”
許多較受歡迎的GenAI工具屏蔽了某些有問題的關鍵詞,但Jager説他注意到人們分享瞭如何使用規避任何現有防護措施的關鍵詞的技巧。在這些網站上,用户推薦輸入非英語語言,因為圖像和文本生成工具往往對非英語短語的審查較少,Jager説。
Bloomberg News發現了一個公開的網絡戀童癖者論壇,上面有一個指南,介紹瞭如何使用倫敦億萬美元初創公司Stability AI創建的圖像生成工具Stable Diffusion生成虛假兒童性虐待材料,該指南是去年十月發佈的。
穩定性AI“嚴格禁止在我們的平台上以及我們的政策中任何為非法或不道德目的而濫用,”該公司的傳訊總監莫特茲·比沙拉説。
“在過去的七個月裏,我們已經採取了許多措施,大大減少了從我們的模型中暴露到不適宜工作內容的風險,”他説。“這些措施包括在我們所有的圖像應用程序、API和模型中安裝阻止不安全和不適當內容的過濾器,並對我們的圖像模型進行訓練,讓其基於已經過濾了NSFW圖像的數據集。”
關於人工生成的虐童材料的投訴已經開始報告。國家失蹤和被剝削兒童中心正在與立法者和平台就該中心擔心可能會成為“一波”此類內容的處理方式進行討論,該中心的首席法律官索拉斯説。
索拉斯表示,該組織已經觀察到色情勒索、誘騙和性交易的增加,其中在線掠食者似乎使用AI生成的腳本來誘使受害者。其他關注點包括如何區分AI生成的描繪虐待的內容與真實攝影,這可能會分散執法和內容管理的注意力,索拉斯説。
在美國,生成涉及兒童進行性行為的虛假圖像是非法的,根據司法部的説法。在英國、澳大利亞和加拿大等國家,生成虛假的兒童性虐待圖像也是非法的。