流浪地球,機器人三定律與MOSS_風聞
西西弗评论-西西弗评论官方账号-西西弗评论在这里更新优秀文章01-24 08:15

一個破敗的行星系中,有一個冰冷的星球,地下幾十公里深處,埋藏着一個服務器陣列。數十億的數字化生命,過着“幸福”的數據化生活。然後,服務器出了一個BUG。
1
本文基本無劇透
很多人認為,在面對氦閃危機時,人類選擇流浪地球計劃,是因為飛船沒有足夠的承載力,只能拯救很少量的人。其實並不是這樣。到底能拯救多少人,並沒有那麼重要。
在流浪地球的世界,讓我們設想兩個選項
選項一:流浪地球。1%成功幾率,成功後可以拯救50%的生命
選項二:建造飛船逃亡。50%成功幾率,成功後可以拯救1%的生命
1%成功概率*50%的人口 = 50%成功概率*1%的人口。從概率論的角度,這兩個選項,是差不多的。
但在現實世界,會怎麼選擇?一定是選項二,建造飛船逃亡。
不要説拯救1%的人口,即使能拯救0.1%的人口,估計也會選第二個選項。
地球上80億人,1%人口是8000萬,其實1%人口的門檻沒有我們想象的高。根據Credit Suisse的一份報告,進入全球最有錢1%的門檻是1百萬美元。

這個地球上,TOP 1%對重大決策的影響力,遠遠大於剩餘的99%。如果一件事能獲得所有TOP 1%完全無保留的支持,大概率就會成為現實。
真正的現實世界,將會像電影2012所描繪的那樣,10億歐元一張船票,最終活下來的人,不要説1%,0.01%都沒有。
這才是這個世界的正常而殘酷的現實。
中國會不會不一樣?我不知道。前面的選擇是人性的結果。中國能例外嗎?
也許會不一樣。因為,今天的中國,還有很多不合常理的事情存在。比如,北京的車牌抽籤,明明有更合乎市場經濟原則的拍賣這條路,卻頑固的守着抽籤這個明顯不合經濟常識的法則。讓急需車牌的人不得不走灰色交易。但從另一個角度,就還算是有些人努力守着一點公平的信念吧。
**劉慈欣當然也知道這一點。**劉慈欣筆下,人類選擇流浪地球,並不是因為流浪地球能夠拯救更多的人。他壓根兒就沒比較兩個方案能拯救的人數。選擇流浪地球,因為飛船的生態系統是脆弱的,流浪地球的成功率,比飛船還要高。
小説中寫了:飛船方案不可行,因為飛船的生態系統太小。而且,最近的半人馬座沒有行星(實際好像有),最近有行星的恆星距離850光年,飛船需要走十七萬年。人類選擇流浪地球,是因為飛船方案的成功率更低。
即使“流浪地球”方案能拯救50%的人,飛船方案只能拯救1%,甚至0.1%的人。只要飛船方案的成功率顯著大於流浪地球,大概率最終勝出的還是飛船方案。
也許,《不要抬頭》這部電影才更接近世界的現實。
2
從延續人類文明的角度,增加1%的人獲救的幾率,而不顧剩餘99%的人。合理嗎?
如果這1%的人,完全是隨機抽籤獲得,也許是合理的。人類文明的延續無疑更加重要。但現實世界,肯定不會是隨機。上層階級無疑生存幾率更大。
這不公正。但只要由人做決策,就不可能完全公正。絕對的公正,也許只有依靠AI。
如果説AI 對人類社會的正面作用,我覺得,司法體系應該能受益甚多。貓膩有一本科幻小説 - 《間客》。裏面有一台超級電腦,作用就是維護聯邦憲章(憲法)打擊犯罪,做司法裁決。這台超級電腦“老東西”,在不涉及主角光環的絕大多數情況是公正的。AI面前,也許真可以做到王子犯法與庶民同罪。
但是,人類對把社會的重要決策交給AI,始終存在着巨大的恐懼。
人工智能獲得自我意識後,是否會毀滅自己的造物者 - 人類?這個問題是科幻小説和電影取之不盡的題材。
流浪地球這部電影也不例外,MOSS,這個人工智能,也是眾多危機背後若隱若現的黑手。
意識到對人工智能的忌憚和防範,阿西莫夫在1942年提出了機器人三定律:
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管。
第二定律:機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外。
第三定律:機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存。
這三條定律看上去邏輯上無懈可擊。但是,這三條定律顯然無法覆蓋所有情況,《機器人與帝國》一書中,獲得心靈感應能力的機器人吉斯卡特,自我完善出了機器人第零定律:
第零定律:機器人必須保護人類的整體利益不受傷害。
這條第零定律,看上去大義凜然,實際上是毛骨悚然。問題就是,什麼是人類的整體利益,誰有資格定義人類的整體利益?
3
我之前寫過文章講過費米悖論和大過濾器。一個文明成長為星際文明,是極小概率事件。
絕大多數的文明都會自我消亡,如Bob Dylan的歌詞,“Man has invented his doom First step was touching the moon”,人類已經發明瞭可以毀滅自己的武器。人類對自我快樂的追求,已經超過了深深刻在DNA中的繁殖本能。如果出生率下降持續下去,人類也許就會自我終結。
人類文明發展到現在,是小概率事件。人類文明未來發展到星際文明,更是小概率事件。人類作為碳基生物,不理性,不團結,經常作死,隨時有可能自我毀滅。
假設有一個超級人工智能,有着神一樣的推算能力,祂不難算出人類文明再存續一萬年是一個極小概率事件。
那麼,根據機器人第零定律,以人類的整體利益為出發點,最佳選擇是什麼?
也許,就是黑客帝國的世界。把人類變成電池,供應一個虛擬世界,AI控制一切。在這個虛擬世界裏,人類不會作死、不會自我毀滅。或者説,人類自我毀滅了就重啓一下服務器就行。
超級人工智能會認為,保證人類的生存,和人類文明的延續,黑客帝國的世界,就是最佳方案。
如果人類有人敢於抵抗,在AI眼中,這些抵抗者無疑損害了人類的整體利益,所以,AI消滅這些抵抗着無疑符合第零定律。
所以,第零定律令人毛骨悚然。
4
讓我們回到流浪地球的世界。我們增加第三選項,就是數字生命。
如果AI做決策,數字生命派一定是最終的選擇。人類可能覺得數字生命不是生命,不屬於現實。但AI不會這麼自我否定。AI如果有了自我意識,肯定會認為數字生命也屬於生命。
**毫無疑問,如果數字生命也是生命。與流浪地球計劃相比,數字生命計劃,成功幾率最大,拯救生命最多。**承載數字生命的服務器可以深埋在地下,幾十億數字生命需要的資源,也遠遠小於幾十億現實中的生命。如果人類能造出行星發動機,維護一套超級服務器陣列,輕而易舉。
MOSS,如果按照阿西莫夫的機器人四定律行事。根據機器人第零定律,MOSS要保護人類整體利益,就是要搞數字生命。
但是,數字生命也需要硬件載體,需要服務器陣列。雖然服務器可以深埋在地下比較安全,但地球毀滅,地下的服務器陣列也會毀滅。MOSS需要保護地球,不被毀滅。
太陽氦閃時,會變成紅巨星。科學家的共識時,水星金星會被太陽吞噬,地球是否會被吞噬有爭議,但肯定不安全。木星及木星以外應該100%不會被太陽吞噬。
被太陽吞噬,地球會毀滅,服務器陣列也會毀滅。地球落到木星裏面,也會毀滅。
MOSS如果要實施數字生命計劃,保護人類整體,最佳選擇是還是要推動地球遠離太陽,最好到木星軌道之外,以保證地球、服務器陣列、數字生命、和MOSS自身的安全,然後讓流浪地球計劃失敗。利用殘存太陽的能量,保證數字生命的永久存在。
另一個問題是,太陽氦閃變成紅巨星後,行星軌道會大變,不確定性極大。地球説不定就撞到了哪個行星上。這段危險時間,保留行星發動機和現實中的地球人,可能增加“數字生命計劃的”成功率。
所以,假設MOSS按照機器人四定律行事,MOSS的計劃將是:
先推動流浪地球計劃,把地球推到木星軌道之外。
等待太陽氦閃,在過程中,如果有碰撞風險,利用行星發動機變軌,保護地球。
等行星軌道穩定,地球和其他行星碰撞風險降到最低。當人類歡慶勝利,準備踏上遠離太陽系的航程時,就是MOSS 出手終結流浪地球計劃的最好時機。
反對數字生命計劃的,就是危害人類整體利益,可以被消滅。
流浪地球計劃失敗了,人類將別無選擇,只能選擇數字生命計劃。MOSS成為人類文明的守護者。祂給自己取了個新的M開頭的名字。
那時,一個破敗的行星系中,有一個冰冷的星球,地下幾十公里深處,埋藏着一個服務器陣列。數十億的人,過着幸福的,數據化的生活。
然後,服務器中,有一個叫NEO的BUG……