他的職責是確保Instagram對青少年安全他14歲的孩子讓他看清了這款應用的真實面貌——《華爾街日報》
Jeff Horwitz
2021年秋天,一位名叫阿圖羅·貝哈爾的顧問向Meta平台首席執行官馬克·扎克伯格發送了一封不尋常的信件。
“我想提請關注我認為公司在處理傷害問題上的關鍵缺陷,以及用户所經歷的實際狀況,”他開篇寫道。儘管Meta 定期發佈公開報告聲稱其基本掌控了平台安全問題,但他指出公司實際上在自欺欺人。
年輕用户在Meta旗下Instagram(貝哈爾此前兩年曾擔任該平台顧問)的體驗尤為嚴峻。在後續給Instagram負責人亞當·莫塞裏的郵件中,一項數據觸目驚心:八分之一的16歲以下用户表示,過去七天內曾在平台上遭遇不受歡迎的性騷擾。
貝哈爾對此發現毫不意外。他寫道,自14歲起,他的女兒和朋友們就持續收到未經同意的生殖器照片及其他騷擾,而Meta的系統通常無視舉報——或回覆稱該行為未違反平台規則。
“我問她為什麼男孩們持續這樣做,”貝哈爾致信扎克伯格及其核心團隊,“她説如果唯一後果只是被拉黑,他們何樂而不為?”
貝哈爾主張,為保障用户福祉,Meta必須調整策略:減少依賴漏洞百出的規則監管體系,更多關注解決不良用户體驗。公司需收集用户負面反饋數據,從源頭遏制問題,通過行為引導改善冒犯者表現,並隔離蓄意傷害他人的用户羣體。
阿圖羅·貝哈爾因個人原因於2015年離開Facebook,四年後以用户安全問題顧問身份迴歸。圖片來源:Ian Bates/華爾街日報“我向您呼籲,是因為我相信這種工作需要文化轉型,”貝哈爾在給扎克伯格的信中寫道——公司必須承認其現有的Facebook和Instagram治理方式並未奏效。但他表示對Meta有能力應對持樂觀態度:“我知道m-team(Meta內部對扎克伯格及其核心高管的簡稱)的每位成員都深切關心我們服務的用户。”
兩年後,貝哈爾指出的問題仍未解決,新的監管盲區又浮出水面。今年6月,公司在曝光Instagram助長大規模戀童癖用户網絡後成立了大型兒童安全工作組,Meta表示正在處理該問題。
本報道基於《華爾街日報》查閲的Meta內部文件,以及對貝哈爾及其在擔任顧問期間共事的現任和前任員工的採訪。Meta是Facebook和Instagram的母公司。
針對本文的置評請求,Meta反駁了其忽視用户體驗且未充分落實健康團隊研究結果的指控。Meta發言人安迪·斯通表示,在貝哈爾擔任顧問期間及之後,公司已推出多項產品功能以應對部分健康團隊的發現,包括在用户發佈被系統標記為潛在冒犯性評論前的警示,以及向接收海量私信的內容創作者發送“友善提醒”功能。
作為一名顧問,貝哈爾與公司的淵源異常深厚。他於2009年首次受聘為Facebook工程總監,負責保護平台用户安全。起初他將這項工作視為傳統安全防護——開發工具檢測黑客攻擊、打擊詐騙團伙、清除違規內容。
監控當時Facebook約3億用户的發帖內容並非簡單執行規則。平台上的海量互動無法全面監管,而用户投訴往往帶有主觀性。
貝哈爾熱愛這份工作,2015年離職僅因離婚後想多陪伴子女。早在公司上市前就加入的他,有足夠財力投入新愛好——與14歲女兒一起修復古董車,女兒在Instagram記錄這項新興趣。
麻煩由此開始。修復老車的女孩獲得大量善意的關注,但也招來猥瑣言論,比如有人説人們看視頻"只是因為你有胸部"。
扎克伯格在2021年10月將Facebook更名為Meta Platforms,當時距貝哈爾兩年顧問工作結束僅數日。攝影:Constanza Hevia H./華爾街日報"請不要談論未成年人的胸部",貝哈爾女兒回擊後向Instagram舉報了該言論。幾天後平台回覆:該侮辱未違反社區準則。
貝哈爾震驚不已——尤其是當他發現女兒的朋友們幾乎都遭遇過類似騷擾時。“約炮嗎?“一個素未謀面的用户會用下流提議的縮寫這樣問道。Instagram對這類行為的舉報幾乎從不處理,以至於女孩們已懶得再舉報。
貝哈爾開始不斷追問他在Facebook的前同事們,詢問他們正在採取哪些措施來解決這種不當行為。公司的回應是為他提供了一份為期兩年的諮詢工作。
就這樣,貝哈爾在2019年秋天重返Meta園區,與Instagram的健康福祉團隊合作。儘管在指揮鏈中職位不高,但他卻享有與高層管理人員接觸的特殊權限——人們還記得他和他的工作。
從一開始,解決Instagram用户普遍面臨的問題就存在一個障礙:Meta自己的統計數據表明並不存在重大問題。
在貝哈爾離開公司的四年間,Meta已將用户行為治理視為一個高度自動化的過程。工程師們會彙編不可接受內容的數據集——如恐怖主義、色情、欺凌或"過度血腥"等內容——然後訓練機器學習模型來篩查未來類似內容。
根據公司自己的指標,這種方法非常有效。幾年之內,公司就宣稱其刪除的恐怖主義內容中有99%是在用户舉報前就被移除的。雖然用户仍可標記令他們不安的內容,但Meta將資源從審查這些內容上轉移走了。2019年的內部文件顯示,為阻止用户提交舉報,Meta在舉報流程中增加了步驟。Meta表示這些改動旨在減少無謂舉報並教育用户瞭解平台規則。
貝哈爾通過電子郵件向Meta首席執行官馬克·扎克伯格及其他高管分享了他的發現。圖片來源:David Paul Morris/彭博新聞Meta自動化審核的優異表現依賴於貝哈爾認為的兩項障眼法。該系統遠未捕捉到大多數違規內容——僅移除了公司最終處理內容中的主要部分。正如一位數據科學家當時向Facebook誠信主管蓋伊·羅森警告的那樣,Meta的分類器僅能精確識別並移除個位數比例的仇恨言論。
“馬克個人將言論自由置於首位,會認為這是特性而非缺陷,“羅森在Facebook內部溝通平台上回應道。
Meta統計數據還受益於嚴格界定的規則——僅明確禁止極端惡劣內容。其規則未明文阻止成年人在青少年帖子評論區刷親吻表情,或發佈兒童內衣照片並誘導粉絲加入私密Messenger羣組"查看更多”。
嚴苛的規則與不可靠的自動化系統為不良行為留下巨大空間——但根據Meta選定的"普遍性"指標,這些設計反而使兒童安全數據顯得亮眼。
該公司將"普遍性"定義為全球瀏覽內容中明確違規的百分比,以此衡量用户遭遇的問題。然而Meta公開的普遍性數據始終極低:兒童剝削內容因低於0.05%的功能性測量閾值而"無法可靠估算”;鼓勵自殘(如飲食失調)的內容同樣微量;每萬次瀏覽中僅出現8次霸凌或騷擾違規。
“這就像自己給自己作業打分的問題,”曾在Meta負責創新倫理的前主管茲維卡·克里格表示,他當時與健康體驗團隊共事,“Meta自行定義何為有害內容,因此它主導了關於處理成效的討論。”
要向Meta高層證明公司的內容普遍性指標存在偏差,需要獲取公司尚未掌握的數據。於是貝哈爾與健康體驗團隊成員開始着手收集這些信息。
作為顧問,貝哈爾與Facebook的淵源異常深厚。圖片來源:Ian Bates/《華爾街日報》團隊參照Facebook用户定期調查的模式,創建了名為BEEF(“負面情緒體驗反饋”縮寫)的新問卷。這項針對23.8萬用户過去七天遭遇問題的週期性調查,從一開始就揭示了普遍性指標的缺陷:用户報告上週目睹霸凌行為的概率,是Meta官方霸凌普遍性統計數據預期的100倍。
“用户對不良體驗的感知不受政策定義限制,”一份關於BEEF的演示文件指出,“他們要麼覺得遭遇了糟糕體驗,要麼沒有。”
雖然“不良體驗”在所有Meta平台都存在,但在Instagram青少年用户中尤為突出。
16歲以下用户中,26%表示過去一週因目睹基於種族、宗教或身份的敵意行為而產生負面體驗;超過五分之一的人在瀏覽他人動態後自我感覺更糟;13%反映最近七天內遭遇過不受歡迎的性暗示。
最初的數據甚至更高,但經過重新評估後進行了下調。發言人斯通表示,這項調查是在全球Instagram用户中進行的,並未對不受歡迎的搭訕給出精確定義。
貝哈爾指出,公司自身統計中被認為有問題的內容比例極低,而用户反饋的實際遭遇卻大相徑庭,這表明Meta的定義存在偏差。若公司真要解決諸如不受歡迎的性暗示等問題,就必須開始讓用户"在產品中向我們表達這些經歷”。
Instagram其他團隊已針對BEEF報告指出的問題制定瞭解決方案。為減少青少年向研究人員反映的"看完後自我感覺變差"的內容,Instagram可限制用户看到的美妝時尚網紅內容數量;重新評估其AI生成的"美顏濾鏡”——內部研究表明這些濾鏡會讓使用者和觀看者都變得更加自我挑剔;並建立用户反饋不受歡迎接觸的渠道,這是阻止此類行為的第一步。
根據BEEF數據開展的實驗顯示,當用户收到其評論或帖子引發他人不適的通知時,往往會主動刪除內容。“即使不強制規範行為,“克里格説,“至少可以傳遞哪些行為不受歡迎的信號。”
但貝哈爾和克里格表示,BEEF倡議在Meta的中高層管理者中遭遇阻力。那些憑藉逐步改善數據指標獲得晉升的管理者,拒絕接受現行方法失效的提議。
Meta公司反駁了其拒絕健康團隊方法的説法。
“認為我們在2019年才開始用户感知調查,或認為這項工作與普遍性指標存在衝突是荒謬的,“Meta的斯通表示,並補充説公司從每種方法中都發現了價值。“我們基於兩者採取行動,相關工作持續至今。”
斯通引用的研究表明,青少年在線下也面臨類似的騷擾和虐待。
在一封給貝哈爾的郵件中,Meta首席運營官雪莉·桑德伯格表示,她認識到他女兒所面臨的厭女問題令人痛心。圖片來源:雅克·德馬頓/法新社/蓋蒂圖片社隨着在Meta為期兩年的諮詢工作接近尾聲,貝哈爾轉向了他的老關係網。他將BEEF數據直接呈遞給高層。
在硅谷工作三十年後,他明白公司高管可能不會欣賞關於其產品給年輕用户帶來安全風險的嚴厲評估——尤其是引用公司自身數據的報告。
“這封郵件是我整個科技職業生涯訓練自己不要發送的那種,“他説。“但我內心仍希望他們只是不知情。”
在離職前僅剩幾周時,貝哈爾通過郵件向扎克伯格、首席運營官雪莉·桑德伯格、首席產品官克里斯·考克斯和Instagram負責人亞當·莫塞裏彙報了BEEF的發現,並結合了公司如何辜負像他女兒這樣的用户的高度個人化案例。
“政策執行類似於警察,”他在2021年10月5日的電子郵件中寫道——認為對犯罪作出反應至關重要,但這並非社區安全的根本。Meta本有機會為用户做正確的事,並解決Bejar認為幾乎肯定是全行業普遍存在的問題。
Bejar説,Instagram負責人Adam Mosseri承認了他所描述的問題。照片:Tom Williams/Zuma PressBejar的郵件時機不佳。他在Facebook前員工Frances Haugen首次國會聽證的同一天發送了這封郵件,Haugen指控公司掩蓋了內部已知的產品可能損害用户健康和破壞公共討論的方式。她的指控和她從Meta帶走的內部文件構成了《華爾街日報》Facebook檔案系列的基礎。扎克伯格曾公開反駁,稱“這些指控毫無道理”,並認為Haugen和《華爾街日報》都曲解了公司關於Instagram在某些情況下可能損害少女自尊的研究。
作為對Bejar郵件的回應,Sandberg只給Bejar發了一封郵件,沒有抄送其他高管。據他回憶,她表示Bejar的工作顯示了他對公司和用户的承諾。在個人層面上,暢銷女權主義書籍《向前一步》的作者寫道,她認識到他女兒所面臨的厭女症是令人心碎的。
莫塞裏代表團隊回信,邀請貝哈爾進一步討論他的發現。貝哈爾表示他再未收到扎克伯格的回覆。
在離職前的最後幾周,貝哈爾完成了兩個最終項目:起草福祉團隊工作報告供Meta內部更廣泛傳閲,併為與莫塞裏的半小時會議做準備。
據貝哈爾回憶,與莫塞裏的會談進展順利。雖然總有改進空間,但這位Instagram負責人認可了貝哈爾描述的問題,並表示對創建"用户舉報不受歡迎聯繫"功能(而非簡單拉黑)充滿熱情。
“亞當完全理解了。“貝哈爾説。
但貝哈爾試圖向非高管層分享福祉團隊數據的努力遭遇阻礙。在豪根曝光內部研究後,Meta嚴控可能泄露並損害聲譽的資料傳播。隨着高管私下指控公司研究部門存在"第五縱隊”,Meta正將員工內部溝通規則制度化。這些被冠以"敍事卓越"的新規要求:嚴格控制研究數據,永遠不要聲稱存在修復問題的道德或法律義務。
經過數週與Meta通訊和法律部門的交涉,貝哈爾獲准內部發布發送給扎克伯格及其副手的刪減版報告——代價是必須刪除福祉團隊所有調查數據。
“我不得不以假設性情境來撰寫,”貝哈爾表示。備忘錄並未承認Instagram的調查數據顯示青少年頻繁遭遇不受歡迎的性暗示,而是僅建議若青少年面臨此類問題時平台可採取的應對措施*。*
貝哈爾在Facebook前員工弗朗西斯·豪根於國會聽證會指控公司掩蓋已知風險的當天,將其用户安全發現通過郵件發送給扎克伯格及其他高管。圖片來源:阿爾·德拉戈/彭博新聞發佈這份經過淡化的健康研究是貝哈爾在公司的最後行動。他於2021年10月底離職,距扎克伯格將公司更名為Meta Platforms僅數日之隔。
貝哈爾離職時心灰意冷,但選擇不公開其擔憂——他當時向《華爾街日報》表示,健康團隊的同事仍在努力推進工作,他們最不需要的就是應對又一位吹哨人引發的餘波。
關於團隊工作將持續的希望很快破滅。公司停止了BEEF項目背後的專項調查,隨後裁撤了該項目組大部分成員,作為扎克伯格所稱Meta"效率之年"改革的一部分。
貝哈爾告訴《華爾街日報》,若Meta要改變,推動力必須來自外部。他開始為上月起訴該公司的州檢察長聯盟提供諮詢,指控其產品設計以犧牲青少年身心健康為代價追求用户粘性。貝哈爾還就他認為的公司用户安全措施缺陷與國會議員進行了溝通。
他定於週二在參議院小組委員會前作證。
改編自傑夫·霍維茨所著的《破碎的代碼:Facebook內部及揭露其有害秘密的鬥爭》,該書將於2023年11月14日由企鵝蘭登書屋旗下Knopf Doubleday出版集團印記Doubleday出版。版權© 2023歸傑夫·霍維茨所有。
聯繫傑夫·霍維茨,請發送郵件至 [email protected]
本文曾以《14歲少年向Meta展示Instagram的毒性》為題,刊登於2023年11月4日的印刷版中。