Facebook的情感操控測試是不道德的——社交媒體的其他部分也是如此 - 彭博社
Joshua Brustein
攝影:西蒙·道森/彭博社人們發現 Facebook 進行了一項實驗,微妙地操控了選定用户新聞推送中的情感內容,這讓人們感到憤怒。2012年實驗的目的是確定如果Facebook用户看到更多快樂的帖子或更多負面的帖子,反應會如何變化,原因是顯然擔心看到太多積極帖子的人可能會對自己貧乏的社交生活感到不安。研究人員發現事實正好相反。
關於Facebook行為的倫理問題是合理的。科學家不應該在沒有獲得許可的情況下 對人進行實驗。“如果你讓人們接觸到會導致心理狀態變化的東西,那就是實驗,”馬里蘭大學技術與法律教授詹姆斯·格里梅爾曼告訴 Slate。
Facebook的數據科學家亞當·克雷默 為研究造成的焦慮道歉。“最終,實驗對人們的實際影響是統計上可檢測到的最小量——結果是人們在接下來的一個星期內,每千個單詞中平均少使用一個情感詞,”他在週日的Facebook帖子中寫道。
這場騷動的存在僅僅是因為Facebook在科學期刊上發表了一篇關於研究的論文。然而,從科學標準來看,幾乎所有社交媒體都是一種不道德的實驗。畢竟,Facebook並不聲稱向用户展示他們朋友發佈內容的未過濾版本。它使用一些神秘的因素組合來決定哪種內容組合最有可能讓人們在網站上停留更長時間。目標始終是增加用户看到的廣告數量。Facebook做出的幾乎每一個決定都是基於什麼能為Facebook賺錢。這雖然是一個好的商業模式,但作為科學卻無法通過檢驗。
Facebook的商業模式與社會科學研究之間的主要區別在於,情感操控是副作用而不是主要目標。例如,去年底的對新聞推送控制的鬥爭。在這種情況下,Facebook發現其算法對來自Upworthy和BuzzFeed等網站發佈的流行、無聊新聞過於友好。公司內部的許多人希望調整其過濾器,以獎勵更嚴肅的新聞。考慮到渴望病毒式傳播的內容往往是積極的,而新聞通常是令人沮喪的,Facebook實際上是在通過偏向某一方來進行同樣的實驗。
同樣的情況也適用於社交媒體推送和搜索結果中的任何個性化。這些服務根本不是中立的。意識到這一點是網絡素養的基本部分。但也許Facebook可以將其情感過濾器變成一個功能。它擁有所有必要的條件來製作一個切換按鈕,讓人們選擇他們想要的網站的憤怒版本還是感傷版本。