顫抖吧,顏色革命2.0時代即將到來_風聞
cdwangxi-04-13 23:23
現在各路網友都是拿着AI來玩,忙着畫美女和答卷子,悲觀的人擔心的是失業,樂觀的人想的是對人類生活改變。然而,我説大家還是太天真了,一種技術怎麼可能出來就用在造福人類上面呢?按規矩,新技術不都是先作軍事用途,然後才會慢慢溢出到民用領域的嗎?那麼,諸位網友設想過AI大規模應用於政治軍事領域後的場景嗎?所以,顫抖吧,一個新的時代即將到來!
現在的AI技術,很明顯最有價值的用途就是造謠攻擊。我們都知道有西方人某些人特別推崇的那句話,叫做謊言重複一千遍就成了真理,還有一句話叫做你説了一句謊話,就要用十句謊話去圓。但是,時代變了,大人。現在的造謠界即將進入AI時代。相信大家對ChatGPT拿來寫論文的事情已經不陌生,也知道了這傢伙現在就能煞有介事地編造各種各樣的虛構的引用文獻,虛構大量不存在的事情並且互相印證和引用,甚至連專業的答辯委員會都能忽悠到。那麼大家有想過這玩意被用在正規的網軍手裏會是什麼效果嗎?到那個時候再也不用搞謊言重複一千遍這種LOW逼的事情了,只需輕敲鍵盤,AI就可以在幾秒鐘內生成一千條完全不重複謠言,更妙的是這些謠言還相互關聯互相印證,完全不怕你去網上搞所謂的“兼聽則明”,你搜集的信息越多,你就越會發現這些信息竟然可以互相印證,共同拼湊出一副越來越清晰地“脈絡”出來,甚至還會有各種豐富的細節內容,不由得你不信。這裏還涉及到謠言傳播的另一個特點,我們都知道即便是現在的謠言,真正到了謠言四起的階段,中間的大量的派生謠言中難免會夾雜着一些明顯很低級甚至幼稚的硬傷,但在謠言傳播過程中,只要受眾拼湊出來的“脈絡”仍然大致完整而清晰,那麼受眾就不會去在意那些細枝末節中偶爾出現的硬傷,受眾會認為這是個別現象和誤導消息,不影響事件本身的可信度。這是個非常重要的性質,因為我們都知道現在的AI其實並不是真有智能,你讓他大量造謠,中間很可能會造出一些存在硬傷,或者非常低級明顯的錯誤的謠言來,但有了上述特性的加持,謠言傳播過程中,受眾會自動忽略掉那些不太成功的謠言,而造謠AI經過訓練和學習,也會重點推介成功的謠言。那麼到了這一步,造謠AI就會説,什麼一句謊言要撒十句謊言去圓,你這不是瞧不起我嗎?看我一秒鐘給你撒一萬個謊來圓,就問你怕不怕。
這就像偵探劇裏的場景,當我們發現一條線所指向某人是兇手的時候,我們可能僅僅是懷疑,甚至不排除他是被冤枉的,但如果你找到的幾條,甚至十幾條線索,全部都指向同一人呢?我想絕大部分人都會毫不猶豫地認定這人就是兇手——除非是碰到柯南了。
各位朋友,時代的巨輪緩緩前景,科技的進步在迅速改變人類的生活,或許當ChatGPT在半年後訓練完畢的時候,它就會接到它誕生以來的第一個任務。當然,我們也不能説ChatGPT就一定會成為造謠武器,所以為了避嫌,我就姑且把這個為造謠而生的AI稱為造謠AI吧。我們都知到,在黑客的世界裏,拒絕服務攻擊是最常用的攻擊手段,但或許我們很快就會見到某些迫不及待的勢力們為我們呈上的謠言界的拒絕服務攻擊了——順便説一句,我覺得山小可能很快就會收到失業的噩耗。
當造謠AI接到任務的時候,攻擊者只需要打開程序,輸入核心的謠言內容,背景,或者是一條精心編撰和挑選的核心謠言,以及相應的制約性要求(例如生成的謠言不得與自己及盟友相關,不得涉及某些人或物等等),這個操作界面可能甚至跟現在的AI作圖幾乎有太大區別,然後輕敲鍵盤確認,服務器就會以每秒數萬條的速度生成海量與之相關,並且互相關聯印證的謠言,不斷清晰謠言的整體脈絡(用ChatGPT寫論文的算法),豐富以核心謠言為中心的內涵與細節(用ChatGPT寫小説的算法)。隨後,AI會開啓機器學習,從網上重新讀取自己放出去的謠言,根據各種謠言的反饋(轉貼高的謠言説明成功,沒反應的謠言或者被罵被踩的謠言説明失敗),然後在最成功的一批謠言基礎上進行二次創作,並且在不超過1天的時間內完成謠言的去核心化(不再依賴初始那條核心謠言),而之所以需要一天時間,僅僅只是因為人類的反饋實在是太慢了,拖慢了造謠AI的自我訓練和學習進度。
這個時候,被謠言攻擊的國家當局會發現,網上在幾個小時之內,就冒出了大量相當逼真、充滿細節並且可以從多個渠道互相印證的關聯消息,其真實程度甚至會讓當局的領導以為下面真發生了這件事,當局第一反應更可能是下令對事情進行調查反饋。
不過還沒等調查人員到達所謂的“事發地”,網上各種細節到位,有板有眼的謠言就已經完成了第一次迭代,開始進行二次創作了。因為初始核心謠言是攻擊國精心挑選和編造的,其必然事先進行過調研,挑選能挑起目標國民眾情緒,煽動民眾不滿痛點的問題進行發揮,面對有圖有真相,有細節有佐證甚至還有引用來源的消息,必定開始有大量的民眾參與轉發和評論。這些數據將會成為造謠AI迭代學習的絕佳訓練樣本,而且隨着參與民眾的數量越來越多,AI升級的速度會越來越快,造謠AI會從上一批放出去的謠言中,挑選轉貼最多,民眾最激動的謠言進行二次創作。不斷篩選和炮製出更加可信,更具煽動性,並且更加難以闢謠的謠言來。
而這個時候的當局調查人員可能還沒有把調查報告寫出來呢,而且他並不知道自己的調查對象已經是好幾個迭代版本之前的謠言,現在正在傳播的謠言早就不知道成啥樣了。不客氣地説,按照現在地球上大多數政府的官僚制度,再快也不過就是所謂的“連夜審批”了吧,而造謠AI的一小時傳播出去的謠言,可能足夠官僚們“連夜審批”個一整年。
當局發覺是遭受了謠言攻擊之後,很快就會發現謠言的源頭是在境外,自己可謂是鞭長莫及,這些的謠言在境外生成之後,會通過所謂的異見人士和非政府組織發送到境內,再在國內的帶路黨幫助下,利用大量的水軍和殭屍賬號進行批量散播,但與以往的顏色革命不同的是,這次的謠言甚至可以做到每一個殭屍賬號發佈的信息都不一樣,而且可以只發一次,整個系統的每一個單元在統一的指揮下各司其職,以秒為時間單位,共同拼湊和編織出一個複雜而完整的熱點陰謀事件旋渦,而真正到處轉發信息的,反而都是一些被煽動的民眾,當局很快就會發現,不管投入多少闢謠力量,哪怕是國內所有的公私媒體一起發動,同時發佈闢謠信息也無濟於事,因為這一回的謠言是以秒為單位來生成的,所有媒體的闢謠速度加起來都趕不上造謠AI的零頭,往往當你發出闢謠信息之後,才發現闢謠內容早就過時了,甚至造謠AI已經預估到了你的闢謠行為,在你發出闢謠公告之前好幾個小時,就已經提前偽裝成你的樣子,以你身份提前發佈了“反闢謠”信息,提前忽悠民眾“凡是出現這種闢謠信息的均系偽造”。當民眾面對兩份互相矛盾的闢謠信息時,會發現兩邊的權威性和形式似乎都差不多,(因為人家就是冒用你的文件圖片和標誌來偽造的闢謠信息),幾乎就是真假莫辯,而渠道驗證性,關聯性方面官方信息孤零零的,會直接被造謠AI海量且可以互相驗證的關聯信息完爆,幾輪交鋒之後,大批民眾甚至會以為造謠AI 發佈的消息才是真正官方消息和闢謠消息,而闢謠的官方反而會被打為“造謠分子”(誰叫你的闢謠信息總是孤零零的,孤證不舉嘛),從而徹底摧毀你的闢謠潛力(就像戰爭中摧毀對方的戰爭潛力一樣)。
到了這一步,這個國家必然已經局面失控,羣情洶湧,社會陷入動亂邊緣。此時大多數政府只能被迫選擇斷網。然而剛才已經説了,從開始謠言攻擊到你決定實施斷網期間已經過了幾個小時呢(反應遲鈍或者猶豫不決的話説不定已經隔天了)?可以想象造謠AI已經釋放了多少謠言,即便此時已經沒有新的AI謠言產生,這個國家仍然需要大量的時間去清理和闢謠已經存在的謠言,而且考慮到在此期間,狐疑的民眾可能還會人工產生一些謠言,加上百姓已經不信任這個政府,那麼你需要多少時間來穩定秩序和恢復民眾的信心?一個月?三個月?半年?還是一年?
那麼局面控制住之後,你是恢復通網還是不恢復?一直斷網就會回到上世紀,網絡一通就會再次被謠言淹沒。你怎麼選?
不難看出,這種造謠攻擊對一個國家和政府將是一場毀滅性的災難,而且所有政府都沒有還手之力,其破壞力遠超人類過往的任何武器,並且突破了時間和空間的限制,直接就是全國同時引爆,攻擊精準且沒有附帶傷害(當然前提是你給造謠AI提前輸入的那些限制條款有效且準確),偏偏其成本還賊低。
正所謂造謠服務器,闢謠下世紀。
各位千萬別有什麼搞個闢謠AI,用魔法打敗魔法這種不切實際的想法,因為AI實際上是沒有謠言識別能力的,他也不可能知道一段信息是否是謠言,這隻有通過線下驗證才能做出準確判斷。所以AI造謠在行,闢謠它是沒戲的,甚至你的闢謠AI經過幾輪學習之後,可能它自己也在信息污染下開始造謠了。
到了這一步,常規的應對方法基本上就沒用了,事實上,唯一可以用來抵禦造謠AI的手段就是我也有造謠AI,你敢對我發起謠言拒絕服務攻擊,那我把服務器一開,你也別想逃得掉,我社會崩潰了你也別想好過,要被顛覆大家一起被顛覆。有趣吧,這不就是核威懾那一套嗎,但是這也説明,造謠AI已經是跟核武器一個級別的滅世大殺器了。
我們都知道,美國向來百無禁忌,甚至歷來對自己的造謠能力引以為傲,要不然也不會將自己的造謠顛覆行為美其名曰“顏色革命”了。所以可以預見,造謠AI一旦問世,首先將其用於軍事用途,並且玩得最溜的必然就是鷹醬,而且鷹醬最拿手的顏色革命,勢必會迎來一次鳥槍換炮式的重大升級,然後以更加猙獰瘋狂的姿態重新降臨人間。
這裏我還是要先説一個好消息,大家都知道現在的AI對技術和算法要求很高,此外對算力要求也很高,算力不足的國家是沒資格進入這個俱樂部的(所以知道美國為什麼瘋狂打壓我們的芯片產業了吧),所以整體來估計,此等大殺器最後真正能掌握的仍然是五大善人,所以大家不用擔心基地組織也來玩造謠AI了。比如我們的毛子哥,那必然是要搞一套造謠AI的,要不然他老哥每天睡覺都會擔心美國謠翻它。
而壞消息則是,大家都知道我們中國曆來講求帝道、王道和霸道,那麼問題來了,造謠屬於那一道呢?答曰:無道。什麼叫做無道?無道就是“如今昏君無道,兄弟們跟着我宋江反了吧!”這句話裏面那個無道。但問題是,我們立國以來,向來是求帝道行王道,連霸道我們都看不起,更何況無道?也就是説,與承諾不首先使用核武器不同,我國可能會直接承諾不使用造謠武器,並且呼籲全球禁用造謠AI,但我們可能也會宣佈,遭受造謠AI攻擊視同遭受核彈攻擊。但這會引發一個新的問題,由於網絡攻擊一般很難鎖定攻擊來源,我們打算朝哪裏發射核彈呢?真的要啓動所謂的核捆綁戰略,一旦有人想謠翻我們,就朝全球無差別發射核彈嗎?
至於誰會成為人類歷史上第一個被謠翻國家,我猜這項殊榮可能會落在沙特或者伊朗頭上(或者這兩位黃泉路上做個伴?)。不過我們中國人都知道,你要問鼎中原,爭霸天下,最次最次都得用霸道,從沒聽説過誰能靠無道爭天下的,但美國畢竟只有200年曆史,這個道理他們現在還不懂。所以忽悠一個蘇聯你厲害,顏色革命中東十國算你狠,你想要謠翻100個國家,或許這回要翻的會是你自己吧?我們不妨設想一下,某天美國打算謠翻某敵對國家,於是開啓了謠言AI,結果限制指令填制時出了紕漏,或者是被有心人做了點手腳,甚至僅僅是因為剛剛才進行武器化,技術還不夠穩定和成熟,結果造謠AI攻擊範圍擴散了,目標敵對國是被謠翻了,然而中東的其他國家也被納入了謠翻的範圍,等美國人發現的時候可能已經來不及了,因為造謠AI已經獨立工作好幾個小時了,產生的謠言數量足夠狗大户埃蘇丹這些闢謠到明年。所以瞬間整個中東北非全亂了,甚至外溢的謠言可能已經延伸至歐亞(因為AI很容易就能通過訓練迭代發現法國用法語造謠效果最好,中國當然得用中文了)。所以一個國家血腥鎮壓示威者,那叫做獨裁、暴君,可能全球會紛紛對其進行譴責和制裁,但以前我們人類可能從沒考慮過,如果幾十個中東非洲甚至歐亞的國家一起鎮壓示威者呢?誰還有心思去譴責別人?那麼,美國真能承受一把謠翻全球之後,各國反噬的怒火嗎?
反正天欲其亡,必令其狂,我們唯一要考慮的就是如何在美國瘋狂到滅亡這段時間裏活下來,別死在黎明前的黑暗中了。