“人工智能教父”反對升級AI大模型,猶如當年“原子彈之父”反對使用原子彈_風聞
普遍进化论-一切变化都是进化,或基本进化,或复合进化05-04 15:36
據美國《紐約時報》網站5月1日報道,被稱為人工智能教父的傑弗裏·欣頓(Geoffrey Hinton)公開宣佈反對各大企業競相開發、升級AI大模型,併為此離開了谷歌公司。
傑弗裏·欣頓對媒體表示:“我對我畢生所研究的東西感到後悔了。”他認為,AI大模型將變得越來越危險,必須停止升級。

無獨有偶,在第二次世界大戰期間,相對論的創立者、“原子彈之父”愛因斯坦與幾位科學家一起給白宮寫信,建議美國研製原子彈,後來又深度參與了研製原子彈的“曼哈頓計劃”。

當原子彈試爆成功,美國軍方準備將原子彈投向日本時,愛因斯坦開始意識到了原子彈將給人類帶來的毀滅性災難,於是他又帶領一眾科學家來到白宮請願,希望政府停止這個瘋狂的轟炸計劃。
但為時已晚,時任美國總統的杜魯門一意孤行,下令美軍在日本的廣島和長崎各投下1顆原子彈,兩座幾十萬人口的城市瞬間灰飛煙滅、生靈塗炭。
事實上,AI大模型可能比原子彈更加危險,原因有三:
首先,原子彈完全受控於擁核國家的政府,個人和組織幾乎無法獲得。更為關鍵的是,擁核國家互相制約,哪個國家都不敢輕易開啓核戰爭,否則將會同歸於盡。
而隨着電腦芯片的算力快速提高,價格不斷下降,以及開源軟件越來越容易獲取,恐怖組織或者極端分子不需要投入太多資源就可以擁有高性能AI大模型,然後用它來實現自己邪惡的其意志。
其次,AI大模型可能為了實現人類為其設定的目標而傷害或毀滅人類。
美國一本科幻小説描述了一個離奇故事:AI助理接到主人的指令,想辦法令更多的人關注他的研究成果。AI助理經過周密計算,結論是如果主人宣佈研究成果的當天被暗殺,必將產生轟動性效果,會有更多的人注意其研究成果。於是AI助理制定了一個周密的行動計劃,並準確無誤地將其付諸實施……
與人類思維相比,人工智能僵化而狹隘,沒有道德底線,缺少全局觀和同理心,為了單純地實現既定目標而不擇手段,甚至毀掉現有的一切,包括創造它們的人類。
最後,人工智能在未來有控制人類的可能。
現在,AI已經能理解人類的語言文字,人類卻看不懂AI內部的脈衝電流。
未來,人類之間的溝通內容AI全能知曉,而AI想什麼,它們之間説什麼,人類卻無從知曉。
另外,隨着人工智能呈指數級快速進化,很可能出現‘自我構建,自主學習,自主運行’的比特智能實體,它們將具有超人的感知能力、思考能力和行動能力。
到了那個時候,“超級比特智能實體”控制人類也不是沒有可能。