Facebook在美國選舉中的虛假新聞更多地影響了保守派,研究表明 - 彭博社
Davey Alba, Aisha Counts
2020年Facebook的選舉信息頁面。
攝影師:Gabby Jones/Bloomberg根據《科學》學術期刊週四發佈的一項新研究,研究人員觀察到在2020年美國總統選舉期間,保守派在Facebook上與虛假新聞故事互動的次數比自由派多,這是一個龐大研究項目中的首個發現,該項目旨在瞭解Facebook對民主的影響。研究發表在學術期刊Science中。
Facebook的母公司Meta Platforms Inc.向來自紐約大學、德克薩斯大學奧斯汀分校和其他十所學術機構的17名獨立研究人員提供了內部數據,這些研究人員旨在研究社交媒體在美國民主中的作用,特別是在2020年選舉期間。
以往關於Facebook的學術研究往往依賴於各種在平台上使用的抓取方法自行收集的數據。研究人員表示,這一努力的獨特之處在於項目的規模之大,以及數據來自Meta本身,確保了更好的質量。根據德克薩斯大學媒體參與中心的Talia Jomini Stroud和紐約大學社交媒體與政治中心的Joshua Tucker領導的學術團體的聯合聲明,“社會科學家在研究社交媒體對美國民主的影響方面受到了限制。”
該合作伙伴關係是基於Facebook在2018年啓動的一項倡議,當時該公司承諾與外部研究人員分享大量帖子、鏈接和其他數據,以便他們研究並標記該網站上的虛假信息。參與該項目的研究人員沒有得到Facebook的報酬,Facebook承諾不參與研究人員提出的問題或得出的結論,該公司表示。
這些論文發表的研究不會解決關於社交媒體和民主的所有爭論,但我們希望並期望它將推動社會對這些問題的理解,”Meta全球事務總裁尼克·克萊格在一篇博客文章中説。在一篇博客文章中説。
週四,首批四篇經過同行評議的研究成果同時發表在科學和學術期刊自然上。除了研究觀察Facebook上的政治極化外,研究人員還展示了另外三個實驗的結果,這些實驗改變了同意用户的Facebook和Instagram信息流,並檢查了美國成年人的平台數據。這些變化包括將信息流從算法性轉變為時間性,減少來自志同道合用户的政治內容以及抑制再分享的內容。研究項目還將在未來幾個月內發表更多研究結果,總共16項,研究聯盟表示。
在研究Facebook上意識形態隔離的研究中,研究人員分析了從2020年9月到2021年2月間2.08億美國Facebook用户的聚合和匿名數據。他們收集了平台上分享的政治新聞故事的獨特域名和獨特URL,檢查了在Facebook上新聞分享高峯期間每天超過9萬個鏈接 — 就在11月3日選舉前和1月6日暴動後,當時一羣支持特朗普的人羣襲擊了美國國會大廈。
研究人員發現,在Facebook上至少被髮布100次並被Meta的第三方事實核查人員評為虛假的政治新聞URL的97%被更多保守派用户看到和參與,根據Facebook對用户政治傾向的算法分類器。與平台上觀察到的新聞鏈接相比,被評為虛假的鏈接比例非常低。
研究表明,在Facebook上,在2020年選舉期間,被標記為虛假信息的新聞報道的受眾傾向於保守派,賓夕法尼亞大學安娜伯格傳播學院的教授、研究的主要作者桑德拉·岡薩雷斯-巴伊隆説。
研究人員小心翼翼地不對他們觀察到的行為做因果推斷。東北大學政治科學和計算機科學教授、研究合著者之一大衞·萊澤在接受採訪時表示,還有其他因素可以解釋結果。例如,目前尚不清楚Facebook使用何種機制在網站上標記潛在的錯誤信息,可能這種機制會系統地標記吸引保守派受眾的新聞。萊澤説,另一項研究也可以更仔細地審查Facebook的事實核查過程,以瞭解為什麼第三方事實核查人員將更多右翼政治新聞評為虛假。“我們還沒有嚴格評估那個流程,”他説。
但研究人員發現,在Facebook上,整體上,受眾在政治上高度分隔。研究人員發現,從一個鏈接到另一個鏈接,故事主要被保守派或自由派看到和參與,而不是兩者兼有。萊澤説,許多以前的學術文獻“暗示基於互聯網的消費並不那麼政治上分隔”。這項新研究指向相反的結論。這一觀察是“新的,也不是,因為在某種程度上,人們認為我們已經知道了。但我們並不知道。”
這項研究還發現,與自由派相比,保守派幾乎獨家看到了更多政治新聞鏈接。當鏈接發佈到Facebook頁面和羣組時,觀眾的政治隔離甚至比鏈接由個人用户發佈時更加明顯。“Facebook的功能——比如頁面和羣組——確實讓人們能夠以一種以往可能很難實現的方式傳遞同質化內容,”Lazer説。
週四發表的另外三項研究基於在2020年美國大選高潮期9月至12月之間的三個月內,改變了一組同意的Facebook和Instagram用户的算法。在其中一項研究中,研究人員將人們的信息源從算法排序改為按時間排序,這樣人們看到的帖子順序是按時間順序排列的,而不是基於他們的偏好。另一項研究減少了來自意識形態相近用户的政治內容。第三項研究從人們的信息源中刪除了在Facebook上重新分享的內容。
總的來説,根據實驗研究,改變算法的方式不太可能改變政治態度。研究人員指出了這些研究中可能解釋用户政治態度影響相對較低的限制因素,包括研究的長度以及在選舉週期附近的時機。這些研究中的用户樣本“甚至比平均水平更具有政治知識和政治參與度,”普林斯頓大學公共與國際事務學院助理教授、兩項研究的主要作者安德魯·猜測説。“這可能表明,這些人的態度可能在一開始就更加明確。”
總的來説,這些研究發現,對算法訂閲和重新分享功能的更改並沒有改變用户的政治態度或行為。
“我們現在知道算法在塑造人們在平台上的體驗方面有多大影響力,但我們也知道,即使改變算法幾個月,也不太可能改變人們的政治態度,”斯特勞德和塔克説,他們是研究Facebook數據的學術團體的領導者。“我們不知道的是為什麼。”