最大的風險是AI產生自我意識、擺脱人類的控制嗎?_風聞
鹤彬-鹤——展开一双翅膀,在彬洲上飞翔……04-08 19:42
【本文來自《朱玉龍:王傳福説自動駕駛“虛頭巴腦”,是清醒認識還是偏見?》評論區,標題為小編添加】
末法時代AI技術方興未艾,人們在對待AI新技術時表現出好奇和探索的一面是積極的,但同時我們也應該注意到,新技術帶來新機遇的同時也帶來了新問題,我們同樣不能對風險隱患視而不見。
在人類不同的文化背景下不同的道德觀倫理觀折射出不同的價值觀,科技的進步發展到底是為人類服務的,還是為資本家服務的?動物園的猴子都能被不文明遊客教壞,AI就不會也被某個別有用心的不道德的AI訓練師調教壞嗎?
最大的風險與其説是AI覺醒產生自我意識後襬脱人類的控制,還不如説就發生在當前文化割裂矛盾衝突不斷的人類自己身上。
這恐怕不是我們這代人或者今後幾代人就能解決的問題。如果碳基生命是硅基生命的引導程序,那麼自相矛盾的引導程序將會把硅基生命引導向何方?人類未來的命運能託付給這樣的AI嗎?
人類社會的知識技能我覺得還是由人類自己來掌握比較好,把人類未來的命運交給AI我真的很不放心。我命由己不由天,更何況AI算哪門子的天?
如果人類養成了對AI工具的長期依賴,那麼一旦發生戰爭、自然災害、突發意外事故,導致離線斷網,或者AI工具拒絕服務,那麼人們可能連很普通的事情都做不了。
別説AI工具了,很多人現在如果離開了火柴、打火機可能都無法生一堆火取暖,甚至無法熟練的使用火堆來烹飪食物。我們不能對自動駕駛技術過分的信任併產生依賴。
如果非要比人與AI犯錯的機率,那我也沒辦法,但我還是寧願死在人類的手裏,也不願死在AI的手裏。
人犯的錯總是要追究責任的,是罪就該罰,有損失就該賠償,AI犯的錯,對不起那只是個大家都不願看到的意外,目前AI在法律層面還是免責的吧?怎樣證明AI有殺人的故意?這個命題成立嗎?AI不是完全服從人類指令的嗎?
所以AI在法律層面是無辜的,即便AI犯了錯,板子也是由開發者替它捱了。
但如果AI真的產生了自我意識,認為人類的存在妨礙到了它的存在呢?
硅基生命跟我們碳基生命都不屬於同一種生命形態,完全無法理解我們人類的緊張、擔憂、恐懼和痛苦,AI殺死一個人根本不會揹負道德壓力。
所以我認為無論AI算法如何先進,也永遠無法從主觀上產生保護人類和服從人類的意識。
而目前我們能做到的至少不能不加節制地任意使用AI技術,就像聯合國明令禁止克隆人類胚胎一樣。