根據用户喜好推送,就是精神鴉片?_風聞
岑少宇-观察者网专栏作者-观察者网专栏作者,演化之眼看世界2018-04-12 06:25
昨天在“觀風聞”看到了@李曉鵬的一篇帖子,題目叫《我為什麼建議你卸載“今日頭條”?》
他是這樣説的:
《今日頭條》這個東西,就是個精神鴉片。你喜歡什麼,它就拼命給你推送什麼。讓你產生一種吸毒的幻覺,彷彿整個世界都在按照你喜歡的方式在運轉,越看越high,無法自拔。但真實的世界顯然並非如此。長期看這樣的東西,會讓人的思想變得偏激而狹隘,不利於我們在思想上的成長。
隨後他舉了個例子,説朋友被今日頭條認定為愛國人士,看了更多中國強大、秒殺美國的文章,不僅輕信,還在朋友圈裏轉發,所以李曉鵬才有了這樣的卸載建議。
李曉鵬説的對不對?
Yes and No

從現狀描述來説,李曉鵬講的當然對。不僅是今日頭條這樣的算法推送,很多公眾號也是如此,吸引、固化一個讀者羣,成天看同質化的內容。它們不是今日頭條,但也完全符合李曉鵬所説的,“天天看這些東西,除了把自己看得很high以外,於國於民、於人於己,實際都沒有任何用處。”
但“你喜歡什麼,它就拼命給你推送什麼”和精神鴉片,不能劃上等號。
現在的問題,你可以説是技術濫用,可更符合人類歷史發展邏輯的描述,是技術的“超前應用”。
有的朋友可能會想:算法推薦那麼傻,怎麼也叫超前?他哪裏超過我了?
恭喜你,能這樣想的朋友,已經會搶答了……哦,不對,是已經把AI甩在身後了。
你為什麼説AI傻,因為它還太依賴人。專用的AI可以自己學圍棋,但推薦AI沒辦法知道你究竟需要什麼。
怎麼辦?那就需要用户自己調教AI,聽上去很傻,可之前都是這麼過來的。比如語音識別就要你親自訓練,雖然科大訊飛現在已經做得很好,但如果有誰口音特別重、特別奇葩,恐怕還得自己多多訓練AI。
語音還是顯性的,可以用積累的大數據,覆蓋各種口音,但AI不是肚子裏的蛔蟲,怎麼知道偏好?所以在未來很長時間,AI在這方面還是繼續傻。
説了半天,我們都在説AI傻,哪裏就超前了呢?
因為大部分讀者不像你那麼懂,知道AI要訓練的道理,所以推薦算法到他們手裏,就變成精神鴉片了啊。
比如説,我既喜歡看FBI warning,又喜歡看CIA warning,那我接觸一個有算法推薦的程序時,就要主動地看兩種東西,培養AI。如果一時興起,連看了一個星期的FBI warning,之後再也看不見CIA warning了,那你能怪誰?
但這樣培訓完之後,我不還是把自己固化了?
沒關係,當你需要某方面的新內容時,隨時可以強化訓練AI,修改自己的偏好。
李曉鵬説:“一個人思想的進步,一是要看一些比自己想得深刻的東西,二是要看一些跟自己觀點不同的東西。前一種看着深奧難懂,後一種看着令人反感。總的來説,都不是令人舒服的。但唯有在這樣的精神磨鍊中,我們對世界的認識才能有所深化,而且從中學會寬容和理解。而這兩種東西,《今日頭條》是不會推送的。”
真正能夠這樣磨練自己精神的人,肯定有訓練AI的意願和毅力,對不對?
而且推薦算法在這樣的人手裏,甚至可以訓練成學習新領域的跳板,成為有效的工具。
反過來説,不是這號人,不管你用不用推薦算法,都不可能是一個脱離低級趣味的人,也就像我這樣看看FBI warning了。
我不敢揣測多少人是後一種,太傷感情了,比談錢還傷感情。但我可以揣測,當今中國廣大的推薦算法用户,其實大部分不瞭解算法的基本原理,甚至沒聽説過,也沒有意識到它變成精神鴉片的可能性。
這就是所謂的“超前應用”。
但不要低估人類整體的適應性,我們現在最多隻能算是互聯網一代,被AI“坑”很正常,但當AI一代誕生時,訓練一些與個人偏好相關的AI,就將像我們刷微信一樣是基本技能,所以對未來,我並不擔心。
而對於我們這一代,我覺得看在XX的份上,能拉一把的還是可以拉一把。比如李曉鵬就可以勸那個朋友瞭解下推薦算法,教他訓練AI,而不是一卸了之。畢竟未來的推薦算法應用只會越來越多,卸載既不是授人以魚,更不是授人以漁,而是讓人直接不吃魚。
最後想説,李曉鵬是觀察者網的優秀作者之一,過去寫過很多精彩的文章,歡迎大家在“觀風聞”裏關注他,他的主頁鏈接是:http://user.guancha.cn/user/personal-homepage?uid=220813