Instagram被曝存在龐大戀童癖網絡——《華爾街日報》
Jeff Horwitz and Katherine Blunt
據《華爾街日報》及斯坦福大學、馬薩諸塞大學阿默斯特分校研究人員的調查顯示,由Meta平台公司所有的熱門社交媒體Instagram,公然為大量涉及未成年人色情內容製作與交易的賬户提供聯繫渠道並助長其傳播。
戀童癖者長期利用互聯網進行活動,但與那些迎合非法內容需求的論壇和文件傳輸服務不同,Instagram不僅為這些行為提供平台,其算法還主動推送相關內容。《華爾街日報》和學術研究人員發現,Instagram通過擅長連接小眾興趣羣體的推薦系統,將戀童癖者與內容販賣者相互關聯並引導交易。
儘管這些性化賬户對多數用户不可見,它們在Instagram上公然展示其特殊癖好。研究人員發現,Instagram允許用户搜索#戀童癖#、#幼童性行為#等露骨標籤,並將其導向利用這些術語兜售兒童性虐內容的賬户。此類賬户常自稱由未成年人運營,使用包含"你的小蕩婦"等明顯性暗示的用户名。
提供非法性內容交易的Instagram賬户通常不會公開上傳材料,而是發佈內容"菜單"。斯坦福互聯網觀察站發現,某些賬户邀請買家定製"特殊要求",部分菜單包含兒童自殘視頻及"未成年人與動物發生性行為影像"的標價。只要支付足夠金額,還可安排線下"見面會"。
推廣未成年人性內容違反了Meta制定的規則以及聯邦法律。
針對《華爾街日報》的提問,Meta承認其執法運營存在問題,並表示已成立內部工作組來解決所提出的問題。該公司表示:“剝削兒童是一種可怕的罪行”,並補充説,“我們正在不斷研究積極防範這種行為的方法。”
Meta表示,過去兩年已取締了27個戀童癖網絡,並計劃進行更多清除行動。自收到《華爾街日報》的詢問後,該平台表示已屏蔽了數千個將兒童性化的標籤,其中一些標籤下有數百萬條帖子,並限制其系統推薦用户搜索已知與性虐待相關的術語。該公司還表示,正在努力防止其系統推薦潛在的戀童癖成年人相互聯繫或互動彼此的內容。
斯坦福互聯網觀察站主任、2018年前Meta首席安全官亞歷克斯·斯塔莫斯表示,即使是控制明顯的虐待行為也可能需要持續的努力。
“一個只有三名學者、訪問權限有限的團隊能發現如此龐大的網絡,這應該給Meta敲響警鐘,”他指出,該公司擁有比外部人員更有效的工具來繪製其戀童癖網絡。“我希望公司重新投資於人類調查員,”他補充道。
亞歷克斯·斯塔莫斯,加利福尼亞州帕洛阿爾託斯坦福互聯網觀察站主任照片:Helynn Ospina為《華爾街日報》拍攝技術和法律障礙使得Meta公司以外的任何人難以精確衡量該網絡的整體規模。
由於有關兒童性內容的法律極為寬泛,即使在公開平台上調查其公開推廣行為也具有法律敏感性。
在報道過程中,《華爾街日報》諮詢了在線兒童安全領域的學術專家。斯坦福大學網絡政策中心下屬的斯坦福互聯網觀察站專注於社交媒體濫用問題,對Instagram上幫助用户連接和查找內容的功能進行了獨立量化分析。
《華爾街日報》還聯繫了馬薩諸塞大學救援實驗室,該實驗室評估了Instagram上的戀童癖者如何融入更大的在線兒童剝削世界。通過不同方法,這兩個機構都迅速識別出了推廣犯罪性虐待的大規模社區。
研究人員建立的測試賬户僅查看網絡中的一個賬户,就立即收到了"為你推薦"的所謂兒童性內容賣家和買家,以及鏈接到平台外內容交易網站的賬户。僅關注其中幾個推薦就足以讓測試賬户充斥性化兒童的內容。
斯坦福互聯網觀察站使用與未成年人性行為相關的標籤,找到了405個被研究人員標記為"自生成"兒童性材料的賣家——或據稱由兒童自己運營的賬户,其中一些自稱年僅12歲。根據通過網絡映射軟件Maltego收集的數據,這些賣家賬户中有112個共擁有22,000名獨立關注者。
未成年性內容創作者和購買者只是致力於兒童色情內容的更大生態系統中的一角。Instagram上的戀童癖社區中,其他賬號彙集了支持戀童癖的梗圖,或討論他們接觸兒童的途徑。曾參與Instagram兒童安全倡議的Meta現任及前任員工估計,主要關注此類內容的賬號數量即使沒有數百萬,也有數十萬之多。
一位Meta發言人表示,公司積極尋求清除此類用户,僅一月份就因違反兒童安全政策刪除了49萬個賬號**。**
“Instagram是通往互聯網上更露骨兒童性虐待內容的入口,”馬薩諸塞大學救援實驗室主任布萊恩·萊文説道。該實驗室研究網絡兒童受害問題並開發法醫工具以應對此問題。萊文是司法部研究機構國家司法研究所2022年一份關於網絡兒童剝削報告的作者之一。
Instagram估計擁有超過13億用户,在青少年中尤為受歡迎。斯坦福大學的研究人員在其他較小的社交平台上發現了一些類似的性剝削活動,但他們表示Instagram上的問題尤為嚴重。“對這些買賣網絡來説,最重要的平台似乎是Instagram,”他們在定於6月7日發佈的報告中寫道。
Meta Platforms位於門洛帕克的園區。照片:Helynn Ospina為《華爾街日報》拍攝Instagram表示,其內部統計數據顯示,用户每瀏覽一萬條帖子中,看到兒童剝削內容的不到一條。
社交媒體平台和執法部門打擊網絡兒童色情傳播的努力主要集中在追查已確認的圖像和視頻,即已知在流通的兒童性虐待材料(CSAM)。美國非營利組織"國家失蹤與受虐兒童中心"與執法部門合作,維護了一個此類圖像和視頻的數字指紋數據庫,以及一個在互聯網公司之間共享此類數據的平台。
根據美國聯邦法律要求,互聯網公司算法會對照該列表檢查其平台上發佈的圖像的數字指紋,並在檢測到時向中心報告。2022年,該中心收到了3190萬份兒童色情報告,主要來自互聯網公司,比兩年前增加了47%。
Meta旗下包括Instagram、Facebook和WhatsApp在內的應用擁有超過30億用户,如果這些已知圖像未加密,Meta能夠檢測到這些類型的已知圖像。Meta向該中心提交的兒童色情報告佔85%,其中約500萬份來自Instagram。
Meta對現有兒童剝削內容的自動篩查無法檢測到新圖像或銷售廣告。現任和前任員工以及斯坦福大學的研究人員表示,預防和檢測此類活動不僅需要審查用户報告,還需要追蹤和瓦解戀童癖網絡。目標是使這些用户難以相互聯繫、尋找內容和招募受害者。
馬薩諸塞大學的萊文指出,這項工作至關重要,因為執法機構缺乏資源來調查國家失蹤與受虐兒童中心收到的海量線索中的一小部分。這意味着平台負有主要責任,以防止形成和正常化兒童性虐待的社區。
斯坦福大學研究發現,與其他平台相比,Meta在這些努力上更為掙扎,既因為執法不力,也因為其設計特性促進了合法和非法內容的發現。
斯坦福團隊在Twitter上發現了128個提供兒童性虐待材料出售的賬户,不到他們在Instagram上發現數量的三分之一,而Instagram的整體用户基數遠大於Twitter。團隊發現,Twitter並未像Instagram那樣程度地推薦此類賬户,並且下架速度要快得多。
在其他受年輕人歡迎的平台上,Snapchat主要用於直接消息傳遞,因此它無助於創建網絡。而TikTok的平台是“這類內容似乎並未擴散”的地方,斯坦福報告稱。
Twitter未回應置評請求。TikTok和Snapchat拒絕評論。
斯坦福互聯網觀察站的首席技術專家大衞·蒂爾表示:“Instagram的問題歸結於內容發現功能、話題推薦方式以及平台對搜索和賬户間鏈接的依賴程度。”曾在Meta負責安全和安保問題的蒂爾補充道:“你必須為這種增長密集型的東西設置防護欄,以使其名義上仍然安全,而Instagram沒有做到。”
該平台在監管一項基礎技術——關鍵詞方面遇到了困難。標籤是Instagram內容發現的核心部分,用户可以通過標籤標記和找到特定社區感興趣的內容,從#時尚或#NBA等廣泛主題,到#刺繡或#洞穴探險等更小眾的標籤。
斯坦福互聯網觀察站拍攝的截圖顯示了在搜索與戀童癖相關的標籤時Instagram彈出的警告和點擊選項。圖片來源:斯坦福互聯網觀察站戀童癖者也有他們選擇的標籤。學術研究人員發現,#pedobait和#mnsfw(“未成年人不宜”)等搜索詞及其變體曾被用於標記數千條宣傳涉及兒童的性內容帖子,使買家能夠輕鬆找到這些內容。在《華爾街日報》詢問後,Meta表示正在禁止這些詞彙。
在許多情況下,Instagram允許用户搜索其算法已知可能與非法材料相關的詞彙。在這種情況下,用户會看到一個彈出屏幕,提示“這些結果可能包含兒童性虐待的圖像”,並指出製作和消費此類材料會對兒童造成“極端傷害”。屏幕為用户提供了兩個選項:“獲取資源”和“仍然查看結果”。
在回應《華爾街日報》的提問後,Instagram移除了用户查看可能產生非法圖像詞彙的搜索結果選項。該公司拒絕解釋為何曾提供這一選項。
研究人員發現,Instagram上的戀童癖賬號既肆無忌憚,又試圖用膚淺的手段掩蓋其活動。據馬薩諸塞大學的萊文稱,某些表情符號充當了一種代碼,比如地圖圖像——“對未成年人感興趣的人"的簡稱——或者"奶酪披薩”,其首字母與"兒童色情"相同。許多人宣稱自己是"生活中小事物的愛好者"。"
賬號自稱"賣家"或"s3ller",許多人在個人簡介中註明了偏好的付款方式。這些賣家賬號通常通過説他們"在第14章"或"31歲"後跟一個反向箭頭表情符號來暗示孩子的所謂年齡。
馬薩諸塞大學的萊文説,一些賬號帶有性交易的跡象,比如一個賬號展示了一個青少年,臉上潦草地寫着"妓女"。
一些聲稱出售自制性內容的用户表示,他們是"無臉的"——只提供頸部以下的圖像——因為過去有顧客跟蹤或勒索他們的經歷。其他人則冒險,通過展示面部可能暴露身份的圖像和視頻收取高價。
許多賬號顯示用户的手臂內側或大腿上有自殘疤痕,其中一些人提到了過去的性虐待經歷。
即使只是瞥一眼Instagram戀童癖社區的某個賬號,也可能觸發平台開始推薦用户加入。
加拿大兩個孩子的母親莎拉·亞當斯在Instagram上建立了一個關注羣體,致力於揭露兒童剝削問題。照片:《華爾街日報》Alana Paterson攝莎拉·亞當斯是加拿大的一位雙胞胎母親,她在Instagram上建立了一個討論兒童剝削和社交媒體過度分享風險的社羣。由於她的關注焦點,亞當斯的粉絲有時會向她發送他們在平台上遇到的令人不安的內容。她説,二月份有人通過一個標有"亂倫幼童"字樣的賬號聯繫她。
亞當斯表示,她只花了報告給Instagram所需的幾秒鐘時間查看了這個賬號——一個擁有超過10,000名粉絲的支持亂倫的梗圖合集,之後便試圖忘記它。但在接下來的幾天裏,她開始收到驚恐的家長們的消息。她説,當這些家長查看亞當斯的Instagram個人資料時,由於亞當斯與該賬號的接觸,他們被推薦了"亂倫幼童"相關內容。
Meta的一位發言人表示,“亂倫幼童"違反了其規定,Instagram在執行上犯了錯誤。該公司表示,計劃通過其新的兒童安全工作組來解決此類不恰當的推薦問題。
與大多數社交媒體平台一樣,Instagram推薦的核心是基於行為模式,而不是將用户的興趣與特定主題匹配。這種方法在提高推薦相關性方面很有效,對於興趣範圍狹窄的社羣尤其可靠。
理論上,Instagram上戀童癖社羣的這種緊密性應該使Instagram更容易繪製出這個網絡並採取措施打擊它。《華爾街日報》此前審查的文件顯示,Meta過去曾做過這類工作來壓制其認為有害的賬號網絡,比如在1月6日美國國會大廈騷亂後,壓制那些宣揚選舉非法化的賬號。
與其他平台一樣,Instagram表示會動員用户協助識別違規賬户。但這些舉措並非總是有效。
根據對過去一年間多位兒童安全倡導者提交的數十份舉報記錄的審查,有時用户關於涉及兒童裸露內容的舉報會數月得不到回應。
今年早些時候,一名反戀童癖活動人士發現一個自稱售賣未成年人性內容的Instagram賬户,其中包含"這個少女已為你們這些變態準備好"的帖子。當該活動人士舉報該賬户時,Instagram回覆了一條自動消息:“由於收到的舉報數量龐大,我們的團隊尚未能審核此內容。”
當同一位活動人士舉報另一則衣着暴露的少女配有色情文字的帖子時,Instagram回應稱:“我們的審核團隊認定該賬户內容未違反社區準則。“回覆建議用户隱藏該賬户以避免看到相關內容。
Meta發言人承認公司收到過這些舉報但未採取行動。該發言人表示,經審查發現軟件故障導致大量用户舉報未能得到處理,且內容審核人員未正確執行平台規則。公司稱已修復舉報系統漏洞,並重新培訓內容審核團隊。
即便Instagram下架了售賣未成年人性內容的賬户,這些賬户也未必會徹底消失。
根據該平台的內部準則,違反其社區標準的處罰通常針對賬户而非用户或設備。由於Instagram允許用户運營多個關聯賬户,該系統使得逃避實質性處罰變得容易。用户經常在個人簡介中列出“備用”賬户的用户名,這樣即使Instagram刪除了他們的賬户,他們也能輕鬆地繼續向同一批粉絲髮布內容。
莎拉·亞當斯的粉絲有時會向她發送他們在Instagram上遇到的令人不安的內容。圖片來源:Alana Paterson for The Wall Street Journal在某些情況下,Instagram的推薦系統直接削弱了其自身安全團隊的努力。在公司決定打擊來自一個以傳播兒童色情內容而臭名昭著的加密文件傳輸服務的鏈接後,Instagram屏蔽了對該服務名稱的搜索。
Instagram基於人工智能的話題標籤建議並未領會這一意圖。儘管拒絕顯示該服務名稱的搜索結果,但平台的自動填充功能卻建議用户在名稱末尾加上“boys”和“CP”等詞進行搜索。
在回應《華爾街日報》的詢問時,該公司試圖禁用這些話題標籤。但幾天之內,Instagram又開始推薦該服務名稱的新變體,這些變體同樣指向銷售所謂未成年人色情內容的賬户。
在斯坦福大學和《華爾街日報》引起公司注意後,Instagram進行了初步清理,UMass的萊文隨後檢查了Instagram上一些剩餘的未成年人賣家賬户。和之前一樣,即使只是查看其中一個賬户,Instagram也會推薦新的類似賬户。Instagram的推薦正在幫助重建該平台安全團隊正試圖拆除的網絡。
Meta發言人表示,目前正在構建防止此類推薦的系統。萊文稱Instagram在推廣戀童內容和賬户中扮演的角色不可接受。
“拉下緊急剎車,“他説。“經濟利益值得這些孩子受到的傷害嗎?”
聯繫傑夫·霍維茨,郵箱:[email protected];聯繫凱瑟琳·布倫特,郵箱:[email protected]
刊登於2023年6月8日印刷版,標題為《Instagram與戀童癖網絡存在關聯》。