搶了人類編輯飯碗的AI算法,會完勝嗎?_風聞
脑极体-脑极体官方账号-从技术协同到产业革命,从智能密钥到已知尽头2020-06-09 07:59
AI奪權,“備胎轉正”的戲碼,在媒體行業再次上演。
5月底,微軟宣佈將解僱50名從事新聞報道篩選和策劃的編輯,取代他們的正是已經與這些人類編輯們共同工作了一段時間的AI編輯。

受此影響,英國新聞協會負責在MSN網站及微軟Edge瀏覽器上維護其新聞主頁的約27名編輯,被告知將在6月底被解僱。
儘管微軟特別聲明,此次裁員和新冠疫情大流行導致的新聞媒體的廣告收入下滑,沒有直接相關,但通過AI技術來削減新聞團隊的人力成本則已經是一個不爭的事實了。
對於這些無奈“中槍”的新聞編輯來説,曾經為他們提供各種新聞、篩選建議的AI算法推薦,竟然是這樣一個“暗中磨刀”的心機AI。
在報道中,一位即將被辭退的編輯人員強調,完全用AI替代人工是有風險的,因為只有人工編輯才能確保網站不會向用户顯示暴力或不適當的內容。這對於AI來説,這確實會是一個問題,因為它更擅長推薦那些符合人性的內容,但卻無法識別一些潛在的社會倫理風險。
當然,微軟自從1995年推出MSN新聞業務以來已有25年的時間。現在在全球至少有800多名編輯仍然在從事着新聞的篩選和推薦工作。未來微軟的新聞團隊仍然還會以人工編輯和AI編輯共同協作的方式,只是AI取代人工編輯的趨勢可能在明顯加速。
站在普通吃瓜羣眾的角度,我們也正被各種新聞資訊、視頻平台的算法推薦所支配,最顯著的體會就是我們花費越來越多的時間在那些讓我們“欲罷不能”的內容上面。
難道説,AI將在取代人類編輯的戰鬥中取得最後的勝利嗎?我們從AI算法推薦的上位和爭議中,來探究下AI算法與人工編輯推薦可能的勝負結果。
信息分發:從“人找信息”進入“信息找人”
“太陽底下無新事”。算法推薦,儘管只是近幾年隨着移動互聯網內容應用的爆發才興起,但其實質上仍然只是人類進行信息分發的一種新形式,而我們對信息分發的需求自古就有了。
赫拉利在《人類簡史》中提出一種智人種之所以戰勝其他物種的新“假説”,那就是我們特別擅於“八卦”和“聊天”。“八卦”有助於讓整個社羣建立情感紐帶,團結起來共進退,“聊天”有助於經驗的傳授,外出的告訴村裏人哪裏有危險,老獵人教會小獵人如何抓獵物。這就是最天然的信息的社交分發,極大提升了人類之間的協作效率和文明的延續。
此後我們經歷了口耳相傳的史詩,結繩記事、甲骨篆刻的符號記錄,以及再後面的文章典籍;現代文明的興盛得益於印刷術的不斷升級,而到了近兩百年左右,新聞報紙、圖書出版、廣播電視等全新的信息分發媒介誕生,構成了當代社會的信息分發的基本版圖。
互聯網的出現又突破了信息分發的時空界限,讓信息可以實現永遠在線、全球同步的傳遞。不過傳統互聯網的信息傳遞仍然延續了物理世界的範式。比如,互聯網早期興起的門户網站和搜索引擎,就是借鑑了圖書館的目錄分類和和百科全書的條目索引。

新聞資訊等信息的分發依賴權威化、中心化組織的採集和報道,用户的信息知識的獲取依賴主動地瀏覽和篩查。
隨着信息的爆炸式增長和人們信息消費的碎片化趨勢增長,“人找信息”的方式遭遇了全新挑戰。算法推薦和相應的內容分發的平台的出現,開啓了通過人類通過機器算法推薦的方式進行“信息找人”的全新模式。
1995年,尼古拉·尼葛洛龐帝在《數字化生存》當中帶有預言般的“我的日報”的想法,現在成為了現實。信息分發正在朝着滿足受眾用户個性化的需求的方向發展。
幾乎就在同時,美國明尼蘇達大學的團隊開發出了第一個自動化推薦系統GroupLens,成為協同過濾推薦算法的最早提出者。此後,算法推薦系統在亞馬遜的電商平台、Netflix的視頻流媒體服務當中也很早便投入了使用。
2016年,可以算是新聞算法推薦崛起的元年。這一年,YouTube將深度神經網絡應用到內容推薦系統中。這一年,我國新聞資訊信息分發市場上,算法推送的內容第一次超過50%。
也正是這一年,率先應用信息算法推薦的今日頭條,終於從四大門户和BAT支持的媒體平台中突圍,實現了6000萬的日活。
但此後算法推薦本身一直爭議不斷。在2017年9月,人民網特意用三篇社評的篇幅批評了今日頭條這類新聞應用的“算法推薦”。社評裏自然首先肯定了算法推薦順應時代潮流,滿足人們個性化、多元化的信息獲取需求,但又專門指出了以下的問題:
算法推薦會縱容低劣內容的泛濫。一些推薦算法只會迎合大眾的獵奇心理,最後只會反覆推送那些低質量內容,最終“劣幣驅逐良幣”,使得傳統媒體的優質、全面的資訊信息無法觸達大眾用户。
推薦算法中所謂的“個性化”推薦,只會機械式地推薦一些關聯性強,但內容單一的信息,甚至會過濾掉那些不熟悉、不認同的信息,造成“信息繭房”。

算法推薦的信息抓取不僅可能涉及到大量的版權問題,甚至還可能走向“創新的反面”。就是智能推薦將走向媚俗化和庸俗化,充斥大量缺乏獨立思考、深度觀察的膚淺內容,反過來破壞社會的創新發展。
人民網的批評,同樣也代表了眾多傳統媒體和眾多精英人士的觀點,而且這些現象確實也符合我們大多數人的直觀印象。但是在附和之前,我們仍然需要進一步瞭解下算法推薦的基本方法和發展,搞清楚人們為什麼會如此容易被算法“馴服”。算法推薦又該如何突破自己的侷限而持續進化?
算法推薦:人性的,太人性
信息分發的本質,就是有效地聯接人和信息。而算法推薦的本質就是運用機器算法實現大規模的自動化信息分發,讓信息自動找到人。
因此,算法推薦需要解決三個問題:瞭解信息,瞭解人,瞭解人何時何地需要這些信息。不過,歸根到底,算法推薦的核心還是瞭解人,即瞭解人的使用習慣、興趣愛好,再通過算法預測用户可能感興趣的信息和話題進行加權推薦。
新聞信息的主要推薦算法都是來自於一些數學算法。在各大新聞資訊聚合類應用上主要使用以下這些算法:
1、內容推薦。這是資訊類推薦最常用到的算法。算法系統通過對文本內容進行標籤設定,一旦用户對相關內容進行過點擊、瀏覽、點贊、評論、分享等操作,系統就會對用户打上相應的興趣標籤。這樣就可以將更多相關標籤的文本進行用户標籤的匹配。比如,一個看過“德甲”內容的用户,就會得到更多關於“德甲”的信息推送。
內容推薦,如果先期無法獲取到用户的興趣標籤特徵,就會容易遭遇冷啓動問題。因此,內容推薦之外還需要其他推薦方式。
2、協同過濾推薦。這是推薦系統中應用最早和最為成功的技術之一,採用了我們常識理解的“人以類聚,物以羣分”的思路,即找到用户的好友或者與其相似特徵的其他用户那裏,將他們感興趣的內容來推薦給該用户。

協同過濾推薦採取了經驗共享的方式,避免了內容推薦中存在着內容分析不準確、過度單一等問題,可以為用户發現潛在的興趣偏好的內容。
3、熱門推薦。熱門推薦來自於傳統媒體的思維方式,主要是基於當前熱點新聞事件和話題進行的內容推薦。區別於傳統媒體由新聞編輯進行的人工篩選,新聞聚合平台的自動算法推薦更在於通過數據統計的方式將一段時間內點擊量、關注度最高的新聞推送給用户。
此外,還有像一系列基於規則、效用、知識以及各類組合的推薦算法來實現對於用户的個性化推薦。
也就是説,對於那些使用了算法推薦的內容平台,相當於有了一手“秘密武器”來對付處在信息焦慮和信息飢渴的移動互聯網用户。即使你是一個新手用户,平台對你瞭解甚少,它也會很快通過讓你定製興趣標籤、嘗試不同類型的內容推送,AB測試等方式來實現所謂“冷啓動”,找到你的真正愛好。
但是,最根本上來説,像今日頭條這樣的內容平台存在着一個最基本的“原罪”就是,平台存在的目的是為了攫取儘可能多的用户時間和注意力,而不是為了讓用户獲得基本的資訊信息之後就轉身走人。
新聞聯播還有個準時準點的結束,而這些內容平台卻可以隨時刷新、無限供應,獲得流量才是其運營的本質。所以,平台的推薦算法就會儘可能討好用户,利用用户的人性弱點來進行信息的餵養。
這也正是內容平台經常為人們所詬病的問題:標題黨橫行、洗稿文章氾濫,色情低俗這類深諳人性弱點的內容層出不窮。一旦因為好奇瀏覽相關內容,算法就會全力推薦更多相關信息。這也是所謂“信息繭房”的根本原因,算法縱容了人性,人性又反過來固化了認知,導致一個用户就在自己熟悉的信息圈裏打轉。這也是很多人對內容平台深惡痛絕,但看起來又欲罷不能的深層原因。
但是需要指出的是,算法推薦本身不必為內容平台的這些問題背鍋,道理就如同“人用刀殺人,而罪責在人而不在刀”一樣簡單。其實,通過算法推薦本身的演化,是可以消解這種用户的信息“偏食”行為和“信息繭房”問題的。
算法推薦的自救:人機協作是正途
無論對於算法推薦的批評有多麼嚴重,但是算法推薦的流行和普及已經是一個不爭的事實。算法推薦的真正進步之處就在於改變了信息分發的方式,即從一種中心化的“責編把關”的分發方式變成基於用户個性化的機器智能推薦的“算法把關”的分發方式。
這種分發方式帶來的是信息分發效率的極大提升,當然同時也帶來了傳統權威、專業媒體的分發“算法”的失效和分發內容權重的下降。但是從目前來看,傳統權威媒體已經不再抱有一開始的否定和打壓態度,而是以積極的姿態擁抱新媒體平台,參與到這場算法推薦的流量爭奪當中,並且正在憑藉其官方身份和專業內容,在新媒體時代重新獲得用户認可。
對於算法推薦帶來的“劣幣驅逐良幣”的問題,這之前確實是算法推薦的弱項,最早的一些機器學習算法和推薦算法是無法識別文章內容是否涉嫌標題黨、假新聞、洗稿、低俗、黃暴等內容。這些低劣內容其實對於平台而言,也是一直在努力清除的隱患。

畢竟平台的發展不能僅靠這些內容來支撐,反而會帶來眾多的版權、投訴和負面輿情。現在的平台都已經加大對內容安全機制的建設,其中包括高風險內容的識別模型技術的廣泛應用以及大規模人工審查核驗。去年,就連同樣執着於算法推薦的Facebook也因為假新聞氾濫而開始使用人工編輯來對內容進行審查。
對於“信息繭房”而言,正如近日北師大教授喻國明在一篇《算法推薦必然導致“信息繭房”效應嗎》的論文中指出的,算法推薦不是“信息繭房”形成的必要條件,算法推薦在“信息繭房”生成後並不起增效作用,甚至還起到了一定的消解作用。
簡單來説,“信息繭房”的存在並不是因為算法推薦的出現而出現的,傳統社會的單一信息、嚴格的媒介控制以及個人的信息“偏食”傾向都是造成“信息繭房”的原因。反而,在算法推薦時代,個體用户還有着來自傳統媒體渠道、社交媒體渠道等多重信息來源,更加不容易製造這種“信息繭房”的生成機制;同時,隨着算法推薦技術的不斷迭代,用户的潛在信息需求也在不斷的挖掘和豐富。
最終,在算法推薦和人工編輯推薦的取捨較量中,我們其實更應該推崇一種帶有“人文理性”和“技術理性”的可信算法推薦系統。顯然,算法仍然更容易給用户提供一種“沉浸式”的信息閲讀體驗,而算法和人的互動關係,本質上是“算法背後設計者的價值邏輯或意識形態與用户的互動”。這就要求在算法設計者意識到“信息繭房”可能帶來的危害之後,主動尋求一種更加優化的解決方案,來建立可信的算法推薦的系統。
最主要的是在算法推薦之外,堅持人機協同,即重視人工編輯在算法推薦基礎之上發揮應用的作用,包括提供新聞專業主義的理念,設置更多的公共議題;提供更具權重的正反觀點信息;提供更多隨機視角的信息等等。
回到微軟新聞部門的裁員問題,之前是模式是AI算法來輔助人類新聞編輯,而未來更可能是人類新聞編輯來輔助AI算法,來優化內容推薦的質量。顯然,AI算法推薦不可能完全取代人類編輯的工作。平台也不會放心將自身的信譽和內容的全部選擇權都交給AI算法。

一項技術的發明和應用在人類的發展歷史上從來只起到一種助燃劑或催化劑的作用。
對於AI的算法推薦來説,它既不會毀掉傳統媒體的生存根基,也不會徹底將人類變成鼠目寸光、各自為營的傻瓜。
其實,如果我們認真觀察,當你發現身邊的老人開始整天盯着手機,關注自己城市發生的各種事情,關心政府出台的各種政策,關心自媒體裏各種奇葩狗血的故事,未嘗不是對他們生活和精神的一種解放,至少更加開闊了眼界,不用再盯着家裏的雞毛蒜皮。
而對於那些因為AI而事業的媒體人,更加不必悲觀嘆氣。夜深人靜的時候,筆耕不輟地開始你的創作,這些內容平台可能會應許你更加光明的前景。