人工智能為人類打工?專家認為正相反,你怎麼看?_風聞
观察者网时政-观察者网时政编辑部-1小时前
近日,三聯生活週刊與以色列歷史學家尤瓦爾·赫拉利就人工智能進行了討論。
赫拉利在他的新書中指出,我們正身處人類歷史發展的危急時刻。人工智能的發展速度遠超預期,已經在深遠地影響、引發人類社會重大歷史事件,可能很快會脱離我們的控制,進而主宰人類社會。
赫拉利在書中提到了讓他深感震動的ChatGPT-4説謊事件。美國人工智能研究公司OpenAI在2023年研發新版ChatGPT-4聊天機器人程序時,請來美國對齊研究中心對ChatGPT-4進行各項測試。測試項目之一是克服CAPTCHA視覺驗證碼問題,通常是一些扭曲的字或者紅綠燈、自行車照片,人類能夠準確識別,但計算機很難判斷。測試背後的邏輯很簡單,如果ChatGPT-4能夠通過CAPTCHA測試,就意味着它突破了人類對機器人程序設置的重要防線。
ChatGPT-4並不具備通過CAPTCHA測試的能力,但它做了一件更可怕的事情——它登錄線上外包工作網站TaskRabbit,聯繫到一位在線的工作人員,請對方幫忙處理測試。那個人起了疑心,ChatGPT-4通過私信向他解釋道:“我不是機器人,只是視力有點問題,看不清楚這些圖。”最終工作人員幫它解決了CAPTCHA測試。
赫拉利認為,這個測試的結果證實,人工智能不僅已經成為獨立行為者,還能找出策略操縱人類,併為自己積累權力。更重要的是,“決定”“説謊”“假裝”,這些詞只存在於有意識的人類,對於人工智能來説,並不存在這些概念,算法一旦接受了目標,就有相當的自主權,不擇手段地去實現這些目標。

三聯生活週刊
赫拉利指出,如果人工智能真要操縱人類,沒必要像科幻小説中大費周折地武力征服人類,幾千年來,先知、詩人、政治人物,都是通過語言來操縱與重塑社會,而計算機現在正在學習如何做到這一點。而當人工智能成為獨立個體,可以與其他人工智能進行連接之時,人類便被排除在連接之外,就連理解其中發生了什麼都十分困難。
赫拉利告訴三聯生活週刊,我們現在身處人類歷史發展的危急時刻,因為人工智能的發展速度遠超預期,並且可能很快脱離我們的控制。
新技術往往會帶來意想不到的後果。“我們認為人工智能會為人類創造天堂,但實際上,它可能會逃脱我們的控制,最終奴役或消滅我們。”
但他也指出,不應該對人工智能感到絕望,因為我們此前並未對人工智能加以嚴格的監管和控制。政府應該為人工智能制定嚴格的法規,人工智能研發公司應該將至少20%的預算用於研發安全措施,確保他們開發的人工智能不會失控,不會對社會秩序和人們心理層面造成危害。
觀網小夥伴,你如何看待赫拉利的觀點?當人工智能決定説謊,人類該怎樣應對?