5.5 行業普及: 中國製造2025和工業互聯網(2018)_風聞
华纳王-太平世界,环球同此凉热!2019-07-25 21:19
昨日俗務纏身,未能更新,今天四更。此為其四,今日畢。這一節講AI帶來的倫理問題。
生活在這個時代,見證着這時代發生的巨大變化。希望此係列能給觀察者網的好友們一定幫助和啓發,有利於你們現在從事的事業和項目,更好的建設我國的製造業能力和國家能力。某在企業管理諮詢和企業信息化圈裏面浸淫多年,很樂意幫助有需要的讀者,若有問詢指教可以直接回復和私信。本稿本着天下文章一大抄,抄來抄去有提高的精神非百分百原創原撰。所以有見到相看似相識的段落,請勿為怪!還有本人很多圖都是網上借來的。

第五講 工業互聯網軟件應用和人工智能 之
第五節 人工智能社會倫理
無論從哲學層面來説,還是從人類智力層面來説,現在人類社還沒有完全為人工智能技術的崛起做好準備,這將會是人類發展人工智能技術最大的風險所在。假如某人工智能算法深處藏有客觀惡意,該人工智能該如何管理?該如何阻止和改進它?該如何避免它對人類造成傷害?該如何避免比人類更快、掌握某些更優秀能力的人工智能使人類的能力趨於退化或使人類的境況趨於惡化?(手持計算器普及很有效的抑制了小孩子的心算能力,手機遊戲削弱孩子們的視力等等)
一台能夠自主學習的機器——“強人工智能“,能夠通過獨特的方式獲得知識,並且能夠將獲得的知識應用在可能超出人類理解的領域。人們很難充分判斷這場變革的影響,這場變革甚至可能到達一個新高度,那時我們的世界將嚴重依賴由數據和算法驅動的人工智能。人類的道德倫理和哲學規範很顯然不是人工智能發展的內容。很多信息網絡是通過對不斷增加的數據的積累和處理來定義知識。當下互聯網時代,數據和算法成為統治者。互聯網用户的信息檢索行為與他們當下的實際需求直接相關,在人類檢索過程中,搜索引擎獲得了互聯網用户信息檢索偏好的有關信息,這使其算法能夠對搜索結果進行個性化處理,而搜索引擎甚至可能將用户的信息檢索偏好提供給第三方,以用於政治或商業目的,事實真相變得不再絕對。在海量信息面前,智慧的作用也會被弱化。互聯網用户們不再強化獨立思考能力,人們被社交媒體上的各種觀點所左右。這些因素都削弱了人們形成並維護自身信念的個性品質,進而會削弱人們的創造力。
互聯網對社會取向和輿論的衝擊特別明顯。互聯網能夠使社會上很多非主流羣體獲得很多曝光度,他們的特殊訴求或嗜好能夠通過網絡獲得更多人的瞭解,這也許會破壞人們對客觀事實的認知。互聯網時代的碎片化社交閲讀不利於人們進行深度思考。利用了人工智能算法的社交軟件對奪人眼球的標題和信息的影響力進行了放大,而那些經過縝密思考寫就的篇章卻在網絡上難以獲得大面積傳播。人工智能主導的社交時代的價值觀,很有可能受到非主流羣體觀點的嚴重歪曲。
人工智能技術能夠通過類似人腦才具有的信息處理能力進行創新性思維並解決複雜的、看似抽象的問題,人工智能技術是針對結果而言的。人工智能可以自行確定自身行為的目標,某種程度上來説人工智能所實現的目標部分來自其自身初始定義,這使得人工智能具有一種內在的不穩定性。人工智能系統在實際運行過程中不斷獲取新的數據並即時對這些新數據進行分析,在分析結果的基礎上,人工智能系統可以不斷對自己的算法進行優化。人工智能系統是一個不斷變化的、處於動態中的系統。裏面內藏了大量對於人類社會來説的不可知性。
人工智能技術目前僅在幾個有限領域裏獲得了應用。人工智能科學家們正將這一技術的應用領域擴大到社會生活的各個方面,未來的人工智能將可以執行多種任務取代人類工作。這些算法只能對所觀察到的現象進行數學理解,算法並不去理解現象背後的原因。歷史經驗表明,新技術常常能夠提高生產效率,促進社會進步。
目前人工智能尚處於初期發展階段,此領域的安全、倫理、隱私、政策和法律、標準問題特別值得人類社會關注。就人工智能技術而言,安全、倫理和隱私問題直接影響人們與人工智能工具交互經驗中對人工智能技術的信任。社會公眾必須信任人工智能技術能夠給人類帶來的安全利益遠大於傷害,才有可能發展人工智能。要保障安全,人工智能技術本身及在各個領域的應用應遵循人類社會所認同的倫理原則,其中應特別關注的是隱私問題。人工智能的發展伴隨着越來越多的個人數據被記錄和分析,而在這個過程中保障個人隱私則是社會信任能夠增加的重要條件,但是人們不知道人工智能會怎麼做。總之,建立一個令人工智能技術造福於社會、保護公眾利益的政策、法律和標準化環境,是人工智能技術持續、健康發展的重要前提。預先發展與人工智能技術相關的安全、倫理、隱私的準則,並在法律上政策上做出指引很有必要。
人工智能發展的不確定性帶來新挑戰。人工智能是影響面廣的顛覆性技術,可能帶來改變就業結構、衝擊法律與社會倫理、侵犯個人隱私、挑戰國際關係準則等問題,將對政府管理、經濟安全和社會穩定乃至全球治理產生深遠影響。在大力發展人工智能的同時,必須高度重視可能帶來的安全風險,加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發展。人工智能可能為我們帶來意想不到的後果。當人工智能系統的運行偏離其設計者的意圖時,人類必須能早期發現並進行修正。如果我們對人工智能系統不施加任何干預,它會不會不可避免地在初期略微偏離設計意圖甚至久而久之沿着偏離的軌道滑向災難性的深淵?就怕到那個時候,對人類來説就太遲了!
人工智能有可能會改變人類的思維方式和價值觀。有人工智能項目已經通過深度學習,研發出能夠回答人類各種問題的設備,包括輔助教育的家庭用、兒童用設備。這種設備的普及,會用來改變人類的思想嗎?這種設備能夠回答一些客觀的諸如“現在外面流行XX電視劇”這樣的問題,但在回答關於存在本質、人生意義、價值取捨這樣的人文問題時,人工智能的使用會給人類帶來更深層的憂慮。我們真得願意社會的孩子們在與不受束縛的人工智能算法進行交談時(或者進行遊戲時)被動地形成價值觀嗎?又該如何確保人工智能或者背後的設計者不做出損害人類意願的後果呢?
開發人工智能的科學家們通常不會在人工智能程序中注入“道德”或“理性”的指令。人類所有的學科都是在人們沒有就各學科的重要概念(諸如“道德”、“理性”這樣的概念)達成共識的前提下發展起來的。人工智能的學習速度是人類的指數倍數,那麼我們應該想到,它同樣能以指數倍數的速度進行試錯、或犯錯,人類的決策方法之一就是通過試錯找到正確。人工智能犯錯的速度要遠遠快於人類,其犯錯所積累的嚴重性也是人類無法預估的。
人工智能有能力實現它被賦予的設計目標,但人工智能不會解釋它實現目標過程背後的原理。在模式識別、大數據分析和遊戲等領域,人工智能或許已經超越了人類。如果人工智能的計算能力繼續快速進步,那麼它或許很快就能夠以與人類略為不同或截然不同的方式對場景進行優化。如果人類最優秀個體對客觀世界的認知能力被人工智能所超越,那麼整體人類再也無法通過自己能夠採用的方式去解釋這個人工智能干預了的世界。從人工智能角度來看,人類經驗在機器眼中不過是一串放在內存處理的數據集,最後誰該為人工智能的錯誤行為負責呢?是人類初始輸入錯,還是人工智能處理和計算出錯?當人工智能行動能力比人類更強,人類如何裁定製定人工智能的行為的正當性呢?從本質上來説,人工智能做的事情是對某選擇判斷過程進行加速,那麼倫理道德是否存在這加速過程內呢?人工智能是人類智能的延伸,也應該是人類價值體系的延伸。在人工智能發展過程中,應當包含對人類倫理價值觀的融入和設定,規範人工智能技術的倫理要求。要依託社會和公眾對人工智能倫理進行深入思考並遵循如下的共識原則實施廣泛共識:
一是人類利益原則,即人工智能應以服務人類社會整體利益為終極目標。這一原則體現對人權的尊重、對人類和自然環境利益最大化以及降低技術風險和對社會的負面影響。在此原則下,政策和法律應負責人工智能發展的外部社會環境的構建,推動對社會個體的人工智能倫理和安全意識教育,讓社會警惕人工智能技術被濫用的風險。此外,還應該警惕人工智能系統輸出和執行與倫理道德偏差的決策。例如,學校利用機器學習算法來評估入學申請,假如用於訓練算法的歷史入學數據(有意或無意)反映出之前的錄取程序的某些偏差(如地區歧視),那麼機器學習可能會在重複累計的運算過程中惡化這些偏差,造成惡性循環。如果沒有人為糾正,偏差會以這種方式在社會中永久存在。
二是責任原則,即在技術開發和應用兩方面都建立明確的責任體系,以便在技術層面可以對人工智能技術開發人員或部門和使用者問責,在應用層面可以建立合理的責任和賠償體系。
在責任原則下,在技術開發方面應遵循透明度原則;在技術應用方面則應當遵循權責一致原則。其中,透明度原則要求瞭解系統的工作原理從而預測未來變化,全程記錄人工智能的行為軌跡,即人類應當知道人工智能如何以及為何做出何種決定,這對於責任分配至關重要。例如,在神經網絡這個人工智能的重要議題中,人們需要知道為什麼會產生特定的輸出結果。另外,數據來源透明度也同樣非常重要。即便是在處理沒有問題的數據集時,也有可能面臨數據中隱含的偏見問題。很多人工智能學習用的人工標籤僅僅在很小人羣範圍內(雲南廣西貴州,標籤業很發達,想不到吧!)製作出來,難保沒有偏見。透明度原則還要求開發技術時注意多個人工智能系統協作產生的危害。
權責一致原則,指的是未來政策和法律應該做出明確規定:一方面必要的商業數據應被合理記錄、相應算法應受到監督、商業應用要受到合理審查;另一方面商業主體仍可利用合理的知識產權或者商業秘密來保護本企業的核心算法。在人工智能的應用領域,權利和責任一致的原則尚未在商界、政府的實踐中完全實現。在人工智能產品和服務的開發和生產過程中,工程師和設計團隊往往輕視倫理問題或者沒有能力處理倫理和價值觀問題。人工智能的整個行業尚未習慣於綜合考量各個利益相關者需求的工作流程,人工智能相關企業對商業秘密的保護也未與透明度相平衡。
科學界在十分興奮地探索人工智能在諸多領域獲得成功的技術可行性,而技術界也在為人工智能未來規模巨大的商業前景感到鼓舞。科學界和技術界這兩個羣體都在探索推進人工智能技術進步,他們應該要花時間試圖去理解這種技術進步在哲學和人文領域的意義。人工智能技術領域的研發人員們必須在對政治和哲學有着充分認識的條件下開發和發展人工智能。
2019年點評:大家先看看昨天《新聞聯播》摘要。
習近平主持召開中央全面深化改革委員會第九次會議
央視網消息(新聞聯播):中共中央總書記、國家主席、中央軍委主席、中央全面深化改革委員會主任習近平7月24日下午主持召開中央全面深化改革委員會第九次會議並發表重要講話。他強調,全面深化改革是我們黨守初心、擔使命的重要體現。改革越到深處,越要擔當作為、蹄疾步穩、奮勇前進,不能有任何停一停、歇一歇的懈怠。要緊密結合“不忘初心、牢記使命”主題教育,提高改革的思想自覺、政治自覺、行動自覺,迎難而上、攻堅克難,着力補短板、強弱項、激活力、抓落實,堅定不移破除利益固化的藩籬、破除妨礙發展的體制機制弊端。
中共中央政治局常委、中央全面深化改革委員會副主任李克強、王滬寧、韓正出席會議。
會議審議通過了《國家科技倫理委員會組建方案》、《關於強化知識產權保護的意見》、《關於促進中醫藥傳承創新發展的意見》、《關於深化農村公共基礎設施管護體制改革的指導意見》、《長城、大運河、長征國家文化公園建設方案》、《關於在國土空間規劃中統籌劃定落實三條控制線的指導意見》、《關於加快建立網絡綜合治理體系的意見》、《區域醫療中心建設試點工作方案》、《國家產教融合建設試點實施方案》、《關於支持深圳建設中國特色社會主義先行示範區的意見》、《中國-上海合作組織地方經貿合作示範區建設總體方案》。
會議指出,科技倫理是科技活動必須遵守的價值準則。組建國家科技倫理委員會,目的就是加強統籌規範和指導協調,推動構建覆蓋全面、導向明確、規範有序、協調一致的科技倫理治理體系。要抓緊完善制度規範,健全治理機制,強化倫理監管,細化相關法律法規和倫理審查規則,規範各類科學研究活動。
一直有各種前代文明研究發掘出遠超現代的古文明文物痕跡。人類如果不能用更有效的倫理控制機制來約束科學技術的發展。人類的未來前景會極為危險。生物學、病毒學、基因學、人工智能、基礎物理學都已經發展到很高的水平,為了人類未來,我們的確需要用倫理,道德和人文法律的發展來保證我們的科研不做傻事。