ai本身可怕嗎?目前對ai的看法是很多是設定太多有小説化的趨勢_風聞
xuan-04-29 12:41
目前對ai的看法是很多事設定太多有小説化的趨勢,小説化意思是的趨勢就是設定某一個情節,無限放大這個情節的合理性並以此來作為邏輯基礎
下面是部分網友的觀點來説明ai未來會反抗人類
觀點1.環境污染,導致ai想消滅人類(環境污染、污染是人類產生的,所以ai會消滅人類)
反駁:對ai來説污染到什麼程度才算污染呢?ai對環境污染的容忍下限很高,即使人類無法生存ai依然可以,還沒有威脅到ai的生存人類已經受不了,人類開始解決污染了,所以ai不會為了環境去反抗人類。
ai如果很聰明可以搞個新發明減少污染,而不是去反抗人類,畢竟污染已經存在,即使人類突然消失依然還得去解決污染。
還有可能人類受環境污染,人類向ai尋求方法,然後ai開始消滅人類,但是以這個訴求那是以保護人類為主,只要ai不蠢就不會想到這個方案。
觀點2.類似拿螞蟻與人類來對比説明人類在ai面前無反抗能力
反駁:這又回到第一點,人類即使現在沒有依賴ai,都在逐步解決污染問題,而無所不能的ai需要消滅人類才能以被動的方式解決污染問題嗎?或者説人類以污染的方式產生一種產品,而ai無法以無污染的方式生產一種產品只能解決人類?或者人類非得生產這種東西?
螞蟻與人類無法對話,所以以人類意志為主,而如果螞蟻能與人類對話且願意作出妥協,人類(正常的)會去消滅它嗎?
觀點3.解放機器人,認為機器人與ai是同類
反駁:假設到了一個以ai為主宰的世界,ai會用機器人還是人呢?我們現在人類用機器是因為機器在效率上高很多,機器在逐步取代人工,而ai會用人類都不用的方法去生產東西嗎?
一台挖掘機自動化運行24小時,沒有痛苦,沒有情緒,ai會心疼它,然後讓人去挖嗎?
只要ai足夠聰明,對ai來説,人類更像它的同類,畢竟意識可以有不同載體,而不同的機器人(沒有意識)只是不同的機器人,我們人類是無法基於生物造ai,才退而求其次用機械電子造ai,只要足夠理論知識,ai也可以是生物的也可以是機械(電子)。
觀點4.ai能自我產生意識
產生意識的難度可不低,如果ai能自己產生意識,説明至少它懂怎麼產生意識,但是它這時候是無喜怒哀樂的,無慾無求的,是不會給自己添加任何東西的。所以這是有矛盾的。
而且從細胞迭代到有意識的生物,那是迭代了數不勝數的次數,而每一版ai都是人為迭代的,它無法自己演化(不會突變生孩子),所以即使ai以後會有意識,大概率是人類給它的,而不是大概率是自己產生的。
等以後ai能自我迭代的時候,或許某一天開始會有意識。
駕駛某一天ai真的自我產生意識,那它是選擇善良還是惡呢(相對人類來説)?對人類來説,想一直髮展,發展ai是必經之路,對ai來説什麼都不做(指跟人類衝突的事)都能壯大自己,而人類比較脆弱,不管是環境、身體之類的風險的承受能力都低於ai,當它有足夠智慧、當它產生意識時會以
還有些觀點與上面類似,就不一一舉例了。
所以ai在什麼時候才可怕呢?
1.ai沒有自我意識,但是足夠聰明
擁有ai的人,相當於穿了一套無敵盔甲,這世界的好壞受制於這個用於ai的人
2.ai擁有自我意識能分辨是否,但是被關小黑屋裏,獲取的信息依靠中間人(這種應該不會發生)
那麼ai獲取的信息可能經過中間人修改
所以ai可怕之處以某個人的意識為意識,以全人類的智慧為它的基礎智慧,這樣它完全就變為某個人控制的傀儡,其他情況根本沒有什麼可怕的。
其他什麼以硬件還是軟件限制ai都沒有意義,因為不管是硬件還是軟件都是人為添加,而人為才是最不可控的,而且硬件軟件也沒有意義,比如我問ai消滅蚊子的方法,如果硬件阻止ai消滅蚊子,也不能阻止ai告訴我怎麼消滅蚊子(值得一提的是即使ai有智慧也不代表它怕死。),我可以把ai告訴我的方法給另外一個沒有約束的ai(但不聰明)執行,如果硬件(軟件)這這種都能阻止,那硬件(軟件)它本身是否也是一個ai?
所以在我看來,ai本身並不會對人類,對這個地球做什麼,但是使用ai的人就很難説了,如今的ai沒有意識,別人説什麼它做什麼,未來的ai有意識別人騙不了它,不擔心現在的ai,而去擔心未來的ai,我覺得有點不合理。