AI能拯救世界?_風聞
guan_16732553391787-为您精心奉上最新最全的元宇宙资讯06-09 13:28
“AI 不會毀滅世界,事實上可能拯救世界。”
a16z的創始合夥人MARC ANDREESSEN 認為,AI提供了增強人類智慧的機會,使我們在各個領域取得更好的結果。然而,AI的發展也存在風險,而當前的道德恐慌可能誇大了問題,其中一些行動者可能是為了自身利益。如何理性看待AI,又應該從哪些視角來看待AI?這篇文章為我們提供了一個可行、可信與可深入的探討範例。以下為演講全文(略有刪改):
首先,對人工智能的簡短描述:人工智能是將數學和軟件代碼應用於教導計算機以類似於人類方式理解、綜合和生成知識的方法。人工智能就像任何其他計算機程序一樣——它運行、接收輸入、處理並生成輸出。人工智能的輸出在各個領域都非常有用,從編程到醫學、法律以及創意藝術都有應用。它屬於人類所有並由人類控制,就像其他任何技術一樣。
對人工智能的更簡短描述:它可以讓我們關心的一切變得更好。

Marc Andreessen是美國企業家、風險投資人和軟件工程師
為什麼人工智能可以讓我們關心的一切變得更好
社會科學幾十年來進行了數千項研究,最具驗證性的核心結論是:智力提高會使我們在生活的幾乎每個領域都獲得更好的結果。更聰明的人在幾乎所有活動領域中都取得更好的成果:學業成績、工作表現、職業地位、收入、創造力、身體健康、壽命、學習新技能、管理複雜任務、領導才能、創業成功、衝突解決、閲讀理解、金融決策、理解他人的觀點、創意藝術、育兒成果和生活滿意度。
此外,人類智力是我們數千年來用來創造我們今天所生活世界的槓桿:科學、技術、數學、物理學、化學、醫學、能源、建築、交通、通信、藝術、音樂、文化、哲學、倫理學、道德。如果沒有在所有這些領域應用智力,我們都還會住在泥屋裏,艱難度日。相反,我們利用智力在過去的4000年裏使我們的生活水平提高了大約10,000倍。
人工智能為我們提供的是深度增強人類智力的機會,可以使所有這些智力成果(以及許多其他方面,從創造新藥到解決氣候變化問題再到太空技術)變得更加出色。
人工智能對人類智力的增強已經開始了——人工智能已經以各種形式存在於我們周圍,如各類計算機控制系統,現在又隨着ChatGPT等大型語言模型的出現迅速升級,並將從現在開始加速發展——如果我們允許的話。
在我們的新人工智能時代中:
每個孩子都將擁有一位無限耐心、無限同情心、無限知識和無限幫助的人工智能導師。人工智能導師將在每個孩子成長的每一步旁邊,幫助他們以無限愛的機器版本最大化潛力。
每個人都將擁有一位無限耐心、無限同情心、無限知識和無限幫助的人工智能助手/教練/導師/訓練師/顧問/治療師。人工智能助手將在人生的各種機遇和挑戰中與人同在,最大化每個人的成果。
每位科學家都將有一位能極大擴展他們科學研究和成就範圍的人工智能助手/合作者/夥伴。每位藝術家、工程師、商人、醫生、護理人員都將在他們的領域中得到同樣的幫助。
每位人民領導者——首席執行官、政府官員、非營利組織主席、運動教練、教師——都將擁有同樣的幫助。領導者做出更好決策在他們領導的人中所產生的放大效應是巨大的,因此這種智力增強可能是最重要的。
整個經濟的生產力增長將大幅加速,推動經濟增長、新產業的創造、新崗位的開設和工資增長,從而在全球範圍內實現物質繁榮的新時代。科學突破、新技術和新藥物將得到顯著擴展,因為人工智能幫助我們進一步解碼自然法則並將其利用於我們的利益。創意藝術將進入黃金時代,因為受到增強人工智能的藝術家、音樂家、作家和電影製片人將能夠比以往更快、更大規模地實現他們的創意。
我甚至認為,當不得不進行戰爭時,人工智能將改善戰爭,通過大幅減少戰時死亡率。每場戰爭都以在極大壓力和極為有限信息下由非常有限的人類領導者做出的可怕決策為特徵。現在,軍事指揮官和政治領導人將擁有人工智能顧問,幫助他們做出更好的戰略和戰術決策,最大程度地減少風險、錯誤和不必要的流血犧牲。
簡而言之,今天人們憑藉自己的自然智慧所做的任何事情,藉助人工智能都可以做得更好,並且我們將能夠應對那些在沒有人工智能的情況下無法解決的新挑戰,從治癒所有疾病到實現星際旅行。
而這不僅僅涉及智能!人工智能最被低估的特質可能是它能賦予人類情感。人工智能藝術使那些缺乏技術技能的人有自由創作和分享藝術思想的能力。與富有移情能力的人工智能朋友交談確實提高了人們應對逆境的能力。而且與人類相比,人工智能醫療聊天機器人已經更具移情能力。無限耐心和同情心的人工智能將使世界變得更温暖、更友善,而不是使世界變得更加冷酷和機械化。
這裏的賭注很高。機遇是深遠的。人工智能可能是我們文明創造的最重要、最好的事物,至少與電力和微芯片相媲美,甚至可能超越它們。人工智能的發展和普及——遠非我們應該害怕的風險——是我們對自己、對我們的子孫和對我們的未來的道義責任。
有了人工智能,我們應該生活在一個更美好的世界中,而現在我們可以實現這一目標。
那麼,為什麼會出現恐慌情緒?
與這種積極觀點形成鮮明對比的是,關於人工智能的公眾討論充斥着歇斯底里的恐懼和偏執。
我們聽到各種聲稱,人工智能將殺死我們所有人,毀壞我們的社會,奪走我們所有的工作,導致嚴重的不平等,並使壞人能夠做出可怕的事情。
那麼,是什麼導致了這種從接近烏托邦到可怕的反烏托邦的潛在結果的分歧呢?
從歷史上看,每一項重要的新技術,從電燈到汽車,從無線電到互聯網,都引發了道德恐慌——社會傳染,使人們相信新技術將摧毀世界、或社會,或兩者兼而有之。悲觀主義檔案館的優秀工作記錄了這些幾十年來由技術驅動的道德恐慌;它們生動地揭示了這種模式。事實證明,目前的人工智能恐慌甚至不是第一次出現。
現在,當然有許多新技術確實導致了不良後果——這些技術通常也對我們的福祉產生了巨大的益處。因此,並不是説道德恐慌的存在意味着沒有什麼需要關注的問題。但是道德恐慌本質上是非理性的——它將可能是合理關切的問題誇大成一種歇斯底里的程度,諷刺的是,這使得我們更難以應對真正嚴重的問題。
現在,我們正在經歷一場關於人工智能的全面道德恐慌。這場道德恐慌已經被各種行動者用作動力,要求採取政策行動——實施新的人工智能限制、法規和法律。這些行動者對人工智能的危險發表極具戲劇性的公開聲明,滋養和進一步激發道德恐慌,他們都自稱是公共利益的無私捍衞者。
但他們是嗎?他們是對還是錯?
人工智能的洗禮者和走私者
經濟學家觀察到這類改革運動中的一個長期模式。這些運動內部的參與者可以分為兩類——“洗禮者”和“走私者”,這是基於20世紀20年代美國禁酒時期的歷史例子:
“洗禮者”是真正相信社會改革的人,他們確實認為(即使不是理性地,但情感上非常深刻),需要採取新的限制、法規和法律來防止社會災難。在禁酒時期,這些參與者通常是深信不疑的基督徒,他們認為酒精正在摧毀社會的道德基礎。在涉及人工智能風險的情況下,這些參與者是真正相信人工智能帶來一種或多種存在性風險的人——給他們接上一台測謊儀,他們是真心相信的。
“走私者”是自私的機會主義者,他們有望通過實施新的限制、法規和法律從中獲得經濟利益,這些措施使他們免受競爭對手的衝擊。在禁酒時期,這些人是指那些非法銷售酒精給美國人的走私者,在合法酒類銷售被禁止時,他們積累了鉅額財富。在涉及人工智能風險的情況下,這些人是指那些如果建立起政府贊助的人工智能供應商壟斷集團,從而形成對新創企業和開源競爭的保護性的監管壁壘,將能夠獲得更多利潤的首席執行官們——這是“太大而不能倒”的銀行的軟件版本。
憤世嫉俗者會認為,一些看似是洗禮者的人也是走私者,特別是那些由大學、智囊團、活動團體和媒體機構付錢攻擊人工智能的人。如果你因促進人工智能恐慌而領取薪水或獲得資助…你可能是走私者。
走私者的問題在於他們總是勝利者。洗禮者是天真的意識形態主義者,而走私者是憤世嫉俗的操作者,因此,這類改革運動的結果往往是走私者得到他們想要的——監管的壟斷、免受競爭的衝擊,形成壟斷集團——而洗禮者則疑惑不解,不知道他們追求社會改進的動力為何走錯了方向。
我們剛剛經歷了一個驚人的例子——2008年全球金融危機後的銀行業改革。洗禮者告訴我們,我們需要新的法律和法規來拆分“太大而不能倒”的銀行,以防止再次發生這樣的危機。於是,美國國會通過了2010年的多德-弗蘭克法案,宣傳稱滿足了洗禮者的目標,但實際上卻被走私者——大型銀行所利用。結果是,2008年“太大而不能倒”的那些銀行現在變得更加龐大。
因此,實際上,即使洗禮者是真心相信的,甚至他們是正確的,他們也被善於操縱和貪婪的走私者利用作為掩護,以謀取自身利益。
而這正是當前推動人工智能監管的情況。然而,僅僅識別參與者並懷疑他們的動機是不夠的。我們應該就洗禮者和走私者的論點進行全面的評估。
AI風險之一:人工智能是否會殺死我們所有人?
第一個也是最早的人工智能厄運論風險是人工智能將決定直接殺死人類。
我們對自己創造的技術會起義並摧毀我們的恐懼深深根植於我們的文化中。古希臘人通過普羅米修斯神話表達了這種恐懼——普羅米修斯帶給人類毀滅性的火的力量,以及更一般的技術(“techne”),因此被神們永遠地受苦。後來,瑪麗·雪萊在她的小説《弗蘭肯斯坦》或《現代普羅米修斯》中,為我們現代人創造了自己的版本,其中我們發展了永生的技術,然後這種技術起義並試圖摧毀我們。當然,沒有關於人工智能恐慌的報紙文章可以完整,如果沒有詹姆斯·卡梅隆的《終結者》系列電影中閃爍着紅色眼睛的殺人機器人的靜態畫面。
這種神話的假定進化目的是激勵我們認真考慮新技術的潛在風險——畢竟,火確實可以用來燒燬整個城市。但是,正如火也是現代文明的基石,可以用來使我們在寒冷而敵對的世界中保持温暖和安全一樣,這種神話忽視了大多數——甚至全部——新技術的更大優勢,並在實踐中激起了破壞性情緒,而非理性分析。僅僅因為古代人會像這樣恐慌並不意味着我們必須也這樣做;我們可以運用理性。
我認為,人工智能會決定直接殺死人類的想法是一個深刻的範疇錯誤。人工智能不是經過數十億年進化的生物,具備參與適者生存競爭的條件,就像動物和我們一樣。它只是數學、代碼、由人構建、由人擁有、由人使用、由人控制的計算機。它不會在某個時刻發展出自己的思想,並決定有動機試圖殺死我們,這是一種迷信的揮手。
簡而言之,人工智能沒有慾望,沒有目標,沒有殺死你的意願,因為它不是活的。人工智能是一台機器,它不會變得有生命,就像你的烤麪包機一樣。
現在,顯然,有些人真心相信人工智能會殺人——洗禮者——他們因他們可怕的警告而突然獲得了極高的媒體關注度,其中一些人聲稱已經研究該主題幾十年,並表示他們現在因為所瞭解的東西而感到驚恐。其中一些真信徒甚至是這項技術的創新者。這些參與者主張對人工智能實施各種奇怪和極端的限制,從禁止人工智能的發展,一直到軍事打擊數據中心和核戰爭。他們認為,因為像我這樣的人不能排除人工智能未來可能造成災難性後果的可能性,我們必須採取一種預防性立場,可能需要大量的暴力和死亡來防止潛在的存在風險。
我的回應是,他們的立場是非科學的——什麼是可測試的假設?有什麼能夠證明假設是錯誤的?我們如何知道何時進入危險區域?除了“你不能證明它不會發生!”這些問題基本上沒有得到回答。事實上,這些洗禮者的立場非常非科學和極端——關於數學和代碼的陰謀論——而且他們已經呼籲使用暴力,所以我將做一件通常不會做的事情,質疑他們的動機。
具體來説,我認為有三件事情正在發生:
首先,回想一下,約翰·馮·諾伊曼對羅伯特·奧本海默關於他在創造核武器方面的擔憂作出了回應——核武器幫助結束了第二次世界大戰並阻止了第三次世界大戰——他説:“有些人承認罪行是為了聲稱犯罪行為的功勞。”有什麼更戲劇化的方式可以為自己的工作的重要性聲名顯赫,而不顯得過於自誇呢?這解釋了那些實際上正在建設和資助人工智能的洗禮者的言行不一致——觀察他們的行動,而不是他們的言辭。
第二,一些洗禮者實際上是走私者。有一個完整的“人工智能安全專家”、“人工智能倫理學家”、“人工智能風險研究員”職業。他們受僱於成為厄運論者,並且應該適當處理他們的陳述。
第三,加利福尼亞州以眾多邪教而聞名,從EST到人民神廟,從天堂之門到曼森家族。許多,儘管不是全部,這些邪教是無害的,甚至可能為在其中找到歸屬感的疏離人羣提供服務。但有些確實非常危險,而且邪教在揭開最終導致暴力和死亡的界限上非常困難。
現實情況是,對於“人工智能風險”,顯而易見的對於灣區的每個人來説都是顯而易見的,但可能在灣區以外的地方並不為人所知,它已經發展成為一個邪教,並突然出現在全球媒體關注和公眾對話的日光下。這個邪教不僅吸引了邊緣人物,而且還吸引了一些實際的行業專家和不少富有的捐贈者,包括直到最近的山姆·班克曼-弗裏德。它發展出了一套完整的邪教行為和信仰。
這種邪教是為什麼存在一些聽起來非常極端的人工智能風險論者的原因——並不是因為他們實際上擁有使他們的極端主義合乎邏輯的秘密知識,而是因為他們自己將自己激動到了狂熱狀態,並且確實非常非常極端。
事實證明,這種類型的邪教並不新鮮——在西方有一種長期的末日信仰傳統,產生了末日邪教。人工智能風險邪教具有所有末日邪教的特徵。
根據維基百科的説法:“千禧年主義是一個團體或運動(人工智能風險論者)相信社會將發生根本性的轉變(人工智能的到來)之後,一切事物都將發生改變(人工智能烏托邦、末日,或者世界末日)。只有戲劇性的事件(人工智能禁令,對數據中心的空襲,對無監管人工智能的核打擊)被視為能夠改變世界(阻止人工智能)的力量,而且人們預計這種變革將由一羣虔誠而專注的人帶來或倖存下來。在大多數千禧年主義情景中,即將到來的災難或戰鬥(人工智能末日或其預防)之後將是一個新的、純淨的世界(人工智能禁令),在這個世界中,信徒將得到獎賞(或者至少被認可一直是正確的)。”
這種末日邪教模式是如此明顯,以至於我很驚訝為什麼更多的人看不到它。別誤會,邪教很有趣,他們的書面材料通常很有創造力和吸引力,他們的成員在晚宴和電視上非常引人入勝。但是他們的極端信仰不應該決定法律和社會的未來——顯然不應該。
AI風險之二:人工智能會毀掉我們的社會嗎?
第二個被廣泛討論的人工智能風險是,人工智能會毀掉我們的社會,通過生成輸出結果,根據這種厄運論者的説法,這些輸出結果將是如此“有害”,以至於對人類造成深遠的破壞,即使我們並非直接喪生。
簡單來説:如果殺人機器人沒有擊敗我們,仇恨言論和虛假信息就會這樣做。
這是一個相對較新的厄運論關注點,它分支出來並在一定程度上接管了我上面描述的“人工智能風險”運動。事實上,最近“人工智能風險”的術語已經從“人工智能安全”(由擔心人工智能會真正殺害我們的人使用的術語)變為“人工智能對齊”(由擔心社會“傷害”的人使用的術語)。原始的人工智能安全論者對這種轉變感到沮喪,儘管他們不知道如何把它收回去——他們現在主張實際的人工智能風險主題更名為“AI notkilleveryoneism”,雖然這個名字尚未被廣泛採用,但至少很明確。
AI社會風險主張的線索就在於它自己的術語“AI對齊”。對齊到什麼?人類的價值觀。哪些人類的價值觀?啊,這就是事情變得棘手的地方。
恰巧,我親眼目睹了一個類似情況——社交媒體的“信任與安全”戰爭。如今顯而易見,社交媒體服務多年來一直受到政府和活動人士的巨大壓力,要求封禁、限制、審查和其他方式壓制各種內容。對“仇恨言論”(以及其數學對應物“算法偏見”)和“虛假信息”的擔憂直接從社交媒體環境轉移到了“AI對齊”的新領域。
我在社交媒體戰爭中的主要收穫是:
**一方面,不存在絕對的言論自由立場。**首先,包括美國在內的每個國家都將某些內容視為非法。其次,有些類型的內容,如兒童色情和煽動真實世界暴力的行為,幾乎被幾乎所有社會普遍認為是無法容忍的,無論是否合法。因此,任何促進或生成內容(言論)的技術平台都將有一些限制。
**另一方面,滑坡論不是謬誤,而是不可避免的。**一旦限制甚至極其可怕的內容的框架建立起來,例如對於仇恨言論、傷害性詞語或虛假信息,明顯錯誤的聲明,如“教皇已經去世”,一系列政府機構、活動人士壓力團體和非政府實體將投入運作,並要求越來越大程度上對他們認為威脅社會和/或他們個人偏好的言論進行審查和壓制,他們甚至以裸露的重罪方式來實施。這種循環在實踐中似乎可以無限進行下去,得到了沿着我們精英權力結構內設立的威權式守門人的熱情支持。這在社交媒體上已經持續了十年,只有一些例外情況下,這種現象仍在不斷增強。
這就是“AI對齊”周圍形成的動態。其支持者聲稱具備智慧,能夠為社會創造良好的人工智能生成的言論和思想,並禁止對社會有害的人工智能生成的言論和思想。其反對者聲稱思想警察極其傲慢和放肆——至少在美國,他們經常是徹頭徹尾的犯罪分子——實際上,他們試圖成為直接從喬治·奧威爾的《1984》中揭示的新型政府-企業-學術威權言論獨裁的形式。
由於“信任與安全”和“AI對齊”的支持者集中在全球範圍內非常狹窄的美國沿海精英階層——包括許多從事科技行業和撰寫相關文章的人——我的很多讀者可能會認為,需要對人工智能輸出進行重大限制,以避免破壞社會。我現在不打算試圖説服你們,我只是簡單地陳述這是需求的本質,並且世界上大多數人既不同意你們的意識形態,也不希望看到你們獲勝。
如果你不同意正在通過不斷強化的言論規範來施加在社交媒體和人工智能上的盛行小眾道德觀,你還應該意識到,關於允許人工智能説/生成什麼的鬥爭將比對社交媒體審查的鬥爭更加重要——非常重要。人工智能極有可能成為世界上一切事物的控制層。它被允許如何運作可能比任何其他事情都更加重要。你應該意識到,一小部分孤立的、黨派性社會工程師正在試圖在古老的保護你們的説法的宣稱掩護下決定這一點。
簡而言之,不要讓思想警察壓制人工智能。
AI風險之三:人工智能會奪走我們所有的工作嗎?
對於因機械化、自動化、計算機化或人工智能而導致的失業擔憂,自從機械織機等機械設備首次出現以來,已經是數百年來一直存在的恐慌。儘管歷史上每一次重大技術的出現都帶來了更多的就業機會和更高的工資水平,但每一波這樣的恐慌都伴隨着聲稱“這一次不同”的説法——這一次終將發生,這一次的技術終將對人類勞動力造成毀滅性打擊。然而,它從未發生過。
在最近的過去,我們經歷了兩個由技術驅動的失業恐慌週期——2000年代的外包恐慌和2010年代的自動化恐慌。儘管在這兩個十年中,許多評論家、專家甚至技術行業高管紛紛表態稱大規模失業即將來臨,但在2019年底——就在COVID爆發之前——世界上的就業機會比歷史上任何時候都更多,工資也更高。
然而,這個錯誤的觀點仍然不會消失。而且,它又回來了。
這一次,我們終於擁有了將奪走所有工作並使人類勞動者變得多餘的技術——真正的人工智能。這一次歷史不會重演,人工智能將導致大規模失業,而不是經濟、就業和工資的迅速增長,對嗎?
不,那是不會發生的——事實上,如果允許人工智能在整個經濟中得以發展和普及,它可能會引發有史以來最引人注目且持久的經濟繁榮,相應地創造創紀錄的就業和工資增長——正好與擔憂相反。原因如下:
自動化導致失業的末日論者一直犯着一個核心錯誤,即“勞動總量誤解”。這個誤解是錯誤的觀念,即在任何特定時間,經濟中需要完成固定數量的勞動力工作,要麼由機器完成,要麼由人完成——如果由機器完成,就沒有工作可以讓人做了。
勞動總量誤解自然而然地產生於幼稚的直覺,但這裏的幼稚直覺是錯誤的。當技術應用於生產時,我們會獲得生產力增長——即通過減少輸入來增加產出。結果是商品和服務的價格下降。隨着商品和服務價格的下降,我們支付的費用減少,這意味着我們現在有了額外的消費能力,可以購買其他物品。這增加了經濟中的需求,推動了新的生產(包括新產品和新產業)的產生,為之前被機器替代的人們創造了新的工作機會。結果是經濟規模更大,物質繁榮度更高,產業更多,產品更多,就業機會更多。
好消息不止於此。我們還會獲得更高的工資。這是因為,在個體工人的層面上,市場根據工人的邊際生產力來確定報酬。科技融入業務的工人比傳統業務中的工人更加高效。僱主要麼根據工人的提高生產力為其支付更多的工資,要麼另一個僱主會,純粹出於自身利益。結果是,技術在一個行業中的引入通常不僅增加了該行業的就業機會,而且提高了工資水平。
總結一下,技術賦予人們更高的生產力。這導致現有商品和服務的價格下降,工資上漲。進而引發經濟增長和就業增長,並促使新的工作和新的產業的創建。如果市場經濟得以正常運作,技術得以自由引入,這就是一個永無止境的向上循環。正如弗裏德曼(Milton Friedman)觀察到的那樣,“人類的需求是無窮無盡的”——我們總是想要比我們擁有的更多。融入技術的市場經濟是我們接近滿足每個人可能想要的一切的方式,但永遠無法完全達到那個目標。這就是為什麼技術不會摧毀就業,而且永遠不會。
對於那些沒有接觸過這些想法的人來説,這些觀點可能會讓你們震驚,可能需要一些時間來理解。但我發誓我沒有憑空捏造它們——事實上,你可以在標準經濟學教科書上讀到所有這些內容。我推薦亨利·哈茲裏特(Henry Hazlitt)的《一堂經濟學課》中的《機械的詛咒》一章,以及弗雷德裏克·巴斯夏(Frederic Bastiat)關於燭光製造商向太陽申請取消它與照明行業的不公平競爭的諷刺請願書,這是為我們這個時代進行了現代化改編。
但你會認為這一次不同。這一次,通過人工智能,我們擁有可以替代所有人力勞動的技術。
但是,根據我上面描述的原理,想象一下如果所有現有的人力勞動都被機器替代會意味着什麼。這將意味着經濟生產力增長的起飛速度將是絕對天文數字,遠超過任何歷史先例。現有商品和服務的價格將全面下降至接近零。消費者福利將飆升。消費者購買力將飆升。經濟中的新需求將爆炸式增長。企業家將創造令人眼花繚亂的新行業、產品和服務,並儘可能快地僱傭儘可能多的人力和人工智能來滿足所有的新需求。
假設人工智能再次替代了那些勞動力?這個循環將重複,推動消費者福利、經濟增長以及工作和工資的進一步增長。這將是一條直線螺旋上升之路,達到亞當·斯密(Adam Smith)或卡爾·馬克思(Karl Marx)從未敢於夢想的物質烏托邦。
我們應該如此幸運。
AI風險#4:人工智能是否會導致嚴重的不平等?
説到卡爾·馬克思,對於AI奪走工作的擔憂直接引出了下一個聲稱的AI風險,即,好吧,馬克,假設AI確實奪走了所有的工作,不管是出於好意還是惡意。那麼,作為AI的所有者將獨佔所有經濟回報,普通人一無所得,這難道不會導致巨大而嚴重的財富不平等嗎?
恰好,這是馬克思主義的一個核心觀點,即生產資料的所有者——資產階級——將不可避免地從實際從事工作的人——無產階級那裏奪取所有社會財富。不管這個觀點被現實多少次證明錯誤,它始終是一個不死的謬論。但是無論如何,讓我們對其予以駁斥。
這個理論的缺陷在於,作為一種技術的所有者,將其保留給自己並不符合你自身的利益,事實上恰恰相反,將其賣給儘可能多的客户才符合你自身的利益。全球任何產品的最大市場都是全世界的80億人口。因此,實際上,每一項新技術——即使最初只向高薪大公司或富裕消費者銷售——也會迅速傳播,直到進入儘可能大的大眾市場,最終覆蓋地球上的每個人。
這方面的經典例子是埃隆·馬斯克(Elon Musk)在2006年公開發表的所謂“秘密計劃”:
第一步,製造**[昂貴的]**跑車
第二步,用這些錢製造一輛實惠的車
第三步,用這些錢製造一輛更實惠的車
……當然,這正是他所做的,結果成為世界上最富有的人。
最後一點很關鍵。如果埃隆今天只向富人銷售汽車,他會更富有嗎?不會。如果他只為自己製造汽車,他會比現在更富有嗎?當然不會。不,他通過向全世界這個最大的市場銷售來最大化自己的利潤。
簡而言之,每個人都能夠擁有這種技術——我們在過去不僅在汽車、電力、無線電、計算機、互聯網、移動電話和搜索引擎方面看到了這一點。這些技術的製造商都有強烈的動力將價格降低到每個地球上的人都能夠負擔得起的程度。這正是目前在AI領域正在發生的——這就是為什麼你可以以低廉甚至免費的價格使用最先進的生成式AI,例如Microsoft Bing和Google Bard。這也是未來的趨勢。這不是因為這些供應商愚蠢或慷慨,而是因為他們貪婪——他們希望最大化市場規模,從而最大化利潤。
因此,情況與技術推動財富集中的説法相反——技術的最終用户,最終包括地球上的每個人,反而獲得了權力,並獲得了大部分創造的價值。與之前的技術一樣,建立AI的公司——假設它們必須在一個自由市場中運作——將競相努力實現這一目標。
馬克思當時錯了,現在他仍然錯了。
這並不是説不平等在我們的社會中不是一個問題。它確實是一個問題,只是它不是由技術驅動的,而是相反,是由那些對新技術最抵制的經濟部門驅動的,這些部門在採用像AI這樣的新技術方面受到最多政府幹預的限制,特別是住房、教育和醫療保健領域。
AI和不平等的實際風險並不在於AI會導致更多的不平等,而是我們將不允許使用AI來減少不平等。
AI風險#5:人工智能是否會導致壞人做壞事?
到目前為止,我已經解釋了五個最常被提出的AI風險中的四個實際上並不存在——人工智能不會復活並殺死我們,人工智能不會毀壞我們的社會,人工智能不會導致大規模失業,人工智能不會導致糟糕的不平等增加。但現在讓我們來解決第五個風險,這個風險我實際上是同意的:人工智能將使壞人更容易做壞事。
在某種意義上,這是一個同義反復。技術是一種工具。工具,從火和石頭開始,可以用來做好事——烹飪食物和建造房屋——也可以用來做壞事——燒傷人和毆打人。任何技術都可以被用於善或惡。沒錯。而且人工智能將使犯罪分子、恐怖分子和敵對政府更容易做壞事,毫無疑問。
這導致一些人提出,好吧,如果是這樣的話,那麼在這種情況下,讓我們不冒這個風險,讓我們在這種事情發生之前立即禁止人工智能。不幸的是,人工智能不是某種難以獲得的神秘物質,就像鈈那樣。相反,它是世界上最容易獲得的物質——數學和代碼。
人工智能的貓顯然已經出逃了。你可以通過成千上萬的免費在線課程、書籍、論文和視頻學習如何構建人工智能,而且每天都有出色的開源實現不斷湧現。人工智能就像空氣一樣——它將無處不在。要抓住它需要實施的極權壓迫程度將如此嚴厲——一個全球政府監控和控制所有計算機?黑色直升機中的軍警搶奪不受控制的GPU?——那時我們將沒有社會可保護了。
因此,我們有兩種非常直接的方法來應對壞人利用人工智能做壞事的風險,而這正是我們應該關注的。
首先,我們已經有法律來刑事化任何人可能利用人工智能進行的大多數壞事。侵入五角大樓的計算機系統?那是犯罪。從銀行盜竊資金?那是犯罪。製造生物武器?那是犯罪。實施恐怖襲擊?那是犯罪。我們可以簡單地專注於在我們能夠時防止這些犯罪行為,並在無法防止時予以起訴。我們甚至不需要新的法律——我不知道有哪一個實際的壞用途被提出並且不已經是非法的。如果發現一種新的壞用途,我們就禁止這種使用。證畢。
但你會注意到我剛才提到的——我説我們應該首先集中精力在防止AI協助犯罪之前——這難道不意味着禁止人工智能嗎?嗯,還有另一種方法來防止這種行為,那就是將人工智能作為一種防禦工具。使人工智能在壞人手中具有壞目標的危險性與使人工智能在好人手中具有好目標的力量是一樣的——特別是那些負責防止壞事發生的好人。
例如,如果你擔心人工智能生成假人和虛假視頻,答案就是建立新的系統,讓人們可以通過加密簽名來驗證自己和真實內容。在人工智能之前,數字化創造和修改真實和虛假內容已經存在;答案不是禁止文字處理軟件、Photoshop或人工智能,而是利用技術來構建一個真正解決問題的系統。
因此,第二,讓我們大力倡導將人工智能用於善、合法的防禦目的。讓我們在網絡防禦、生物防禦、打擊恐怖分子以及我們為了保護自己、社區和國家而做的一切中運用人工智能。
當然,政府內外已經有很多聰明人正在做這些事情——但如果我們將目前所有致力於徒勞地試圖禁止人工智能的努力和智力應用於利用人工智能防範壞人做壞事,我相信一個充斥着人工智能的世界將比我們今天所生活的世界更安全。
應該做些什麼呢?
我提出一個簡單的計劃:
大型人工智能公司應該被允許儘快而有力地構建人工智能,但不應該被允許實現監管捕獲,不應該建立一個由於錯誤的人工智能風險聲明而免受市場競爭影響的政府保護壟斷。這將最大程度地發揮這些公司令人驚歎的能力在技術和社會層面帶來的回報,它們是現代資本主義的珍寶。
初創人工智能公司應該被允許儘快而有力地構建人工智能。他們既不應該面對政府授予大公司的保護,也不應該獲得政府援助。他們應該被允許自由競爭。如果初創公司沒有成功,它們在市場上的存在也將不斷激勵大公司做到最好——我們的經濟和社會無論如何都會受益。
開源人工智能應該被允許自由傳播和與大型人工智能公司和初創公司競爭。開源應該沒有任何監管壁壘。即使開源技術沒有超越公司,其廣泛可用性對世界各地希望學習如何構建和使用人工智能以成為技術未來一部分的學生來説是一種福音,並且將確保人工智能對每個能從中受益的人都可用,無論他們是誰,有多少錢。
為了抵消壞人利用人工智能做壞事的風險,政府與私營部門合作應積極參與潛在風險領域,利用人工智能來最大程度地提升社會的防禦能力。這不僅限於與人工智能相關的風險,還包括更一般的問題,如營養不良、疾病和氣候問題。人工智能可以成為解決問題的非常強大的工具,我們應該將其視為如此。
這就是我們如何利用人工智能拯救世界。現在是建設的時候了。
傳奇和英雄
人工智能的發展始於上世紀40年代,與計算機的發明同時進行。關於神經網絡(即我們今天所擁有的人工智能的架構)的第一篇科學論文於1943年發表。在過去的80年裏,整整幾代人的人工智能科學家出生、上學、工作,甚至在許多情況下去世,他們未能看到我們現在所獲得的回報。他們是傳奇,每一個人都是。
如今,越來越多的工程師——其中許多人年輕,可能有祖父母甚至曾祖父母參與了人工智能理念的創造——正在努力將人工智能變為現實,儘管面對一堵試圖將他們描繪成魯莽惡棍的恐懼和悲觀主義牆壁。我不認為他們是魯莽或者惡棍。每一個人都是英雄。我和我的公司非常高興支持儘可能多的他們,我們將百分之百地支持他們和他們的工作。
來源:AI範兒