美國人工智能戰略報告_風聞
海国图智研究院-海国图智研究院官方账号-海国图智研究院,新型、独立的国际关系社会智库2019-06-24 09:45
本文首發於微信公眾號“海國圖智研究院”
編譯摘選
內容摘要:2016年10月,奧巴馬在白宮前沿峯會上發佈報告《國家人工智能研究和發展戰略計劃》。2019年2月11日,特朗普簽署行政令《維護美國人工智能領導地位的行政命令》(Executive Order on Maintaining American Leadership in Artificial Intelligence),就美國聯邦政府層面人工智能(AI)的研究、推廣和培訓做出全面部署,以確保美國在AI研發及相關領域的全球領先優勢,並於6月21日推出該計劃的最新版。此次更新建立在2016年發佈的第一個國家人工智能研發戰略計劃的基礎上,保留了前七條戰略,實質內容沒有變化,僅措辭稍有改變,並新增戰略八。以下為報告選譯。
摘要
人工智能(AI)幾乎對社會的方方面面都大有裨益,包括經濟、醫療、安全、法律、交通,甚至科技本身。2019年2月11日,美國總統特朗普簽署行政令《維護美國人工智能領導地位的行政命令》(Executive Order on Maintaining American Leadership in Artificial Intelligence),啓動了美國人工智能計劃,以促進和保護美國的人工智能技術和創新。該倡議是一項一體化戰略,私營部門、學術界、公眾和許多志同道合的國際合作夥伴都參與其中。在其他行動中,該倡議中的關鍵指令要求聯邦機構優先考慮對人工智能研發(R&D)進行投資,提高獲得高質量網絡基礎設施和數據的機會,確保國家在制定人工智能技術標準方面處於領先地位,並提供教育和培訓機會,為美國塑造人工智能新時代下的勞動力。
為支持美國人工智能的倡議,《國家人工智能研發戰略計劃:2019年更新版》為聯邦政府在人工智能研發上的投資確定了優先領域。2019年的更新建立在2016年發佈的第一個國家人工智能研發戰略計劃的基礎上,其涵蓋過去三年中出現的新研究、技術創新和其他考慮因素。此次更新由來自聯邦政府的主要人工智能研究人員和管理人員開發,並得到了更廣泛的民間社會的支持,其中包括美國許多領先的學術研究機構、非營利組織和私營技術公司。這些主要利益攸關方的反饋肯定了2016年戰略計劃各部分的持續相關性,同時也呼籲人們更加註重提高人工智能的可信賴度、增強與私營部門的合作以及其他必要措施。
《國家人工智能研發戰略計劃:2019年更新版》為聯邦政府投資人工智能研究制定了一系列目標,並確定了以下八個戰略重點:
戰略一:對人工智能研究進行長期投資。
戰略二:開發有效的人類與人工智能協作方法。
戰略三:理解並解決人工智能的倫理、法律和社會影響。
戰略四:確保人工智能系統安全可靠。
戰略五:開發用於人工智能培訓及測試的公共數據集和環境。
戰略六:制定標準和基準以測量和評估人工智能技術。
戰略七:更好地瞭解國家人工智能的研發人力需求。
戰略八:擴大公私合作以加速人工智能發展。
戰略一:對人工智能研究進行長期投資。
在具有潛在的長期收益的領域中,我們需要對人工智能研究進行投資。雖然長期研究的一個重要組成部分是具有可預測結果的漸進式研究,但對高風險研究的長期而持續的投資可以帶來高回報。這些回報可以在5年、10年或更長時間內看到。其中一些重要領域包含:推進面向數據的知識發現方法、提高人工智能系統的感知能力、理解人工智能的理論機能和侷限性等。
雖然許多人工智能算法的最終目標是用類似於人類的解決方案來應對開放的挑戰,但我們尚未很好地理解人工智能的理論機能和侷限性,以及這種類似人類的解決方案在人工智能算法中可能達到的程度。為了更好地理解人工智能技術,尤其是機器學習為什麼通常在實踐中工作得很好,我們需要進行理論上的工作。
戰略二:開發有效的人類與人工智能協作方法。
雖然完全自主的人工智能系統在某些應用領域(如水下或深空探索)中很重要,但在許多其他應用領域(如災難恢復和醫學診斷)中,最有效的解決方法是人類與人工智能系統相結合以實現應用目標。這種交互協作利用了人類和人工智能系統的互補性。未來的應用將在人類與人工智能系統之間的功能角色劃分、人類與人工智能系統之間相互作用的本質、人類與其他人工智能系統協同工作的數量以及人類與人工智能系統將如何溝通和共享情境感知等方面有很大的差異。在創建與人類有效合作的系統時,研究人員面臨許多根本性的挑戰,如:尋求人類感知人工智能的新算法、為人類機能的增進開發人工智能技術、開發更有效的語言處理系統等。
戰略三:理解並解決人工智能的倫理、法律和社會影響。
自2016年國家人工智能研發戰略計劃發佈以來,針對人工智能系統開發和部署的倫理、法律和社會影響的研發活動有所增加。人們越來越認識到,人工智能系統必須是“值得信賴的”,而且人工智能可以改變社會和經濟生活的許多領域,包括就業、醫療和製造業。我們需要進行更多的研發工作來開發人工智能架構,通過諸如透明度和可解釋性等技術機制,將倫理、法律和社會問題結合起來。這項研發需要技術專家、利益相關者和其他領域的專家的緊密合作,包括社會行為科學、法律、倫理和哲學。主要的研究領域既包括理解人工智能的倫理、法律和社會含義,還包括開發符合倫理、法律和社會原則的人工智能設計方法。這一領域遇到的關鍵信息技術研究挑戰有:通過設計提高公平性、透明度和問責性、建設符合倫理道德的人工智能、符合倫理的人工智能的體系結構設計。
戰略四:確保人工智能系統的安全可靠。
在廣泛使用人工智能系統前,我們需要確保該系統以可控的方式安全可靠地運行。我們需要進行研究來解決這一挑戰——創建可靠、可信賴的人工智能系統。與其他複雜系統一樣,人工智能系統也面臨着重要的安全和安全挑戰。為了應對這些挑戰,可採取的措施有:提高可解釋性和透明度、建立信任、加強核查與驗證、防範攻擊等。
戰略五:開發用於人工智能培訓及測試的公共數據集和環境。
人工智能的好處將繼續增加,但只有在為人工智能開發提供培訓和測試資源的情況下才會增加。我們需要進行研究,為各種人工智能應用程序開發高質量的數據集和環境,並使可靠地訪問良好的數據集和測試和培訓資源成為可能。此外,我們還需要開發額外的開源軟件庫和工具包,以加快人工智能研發的進程。這些關鍵領域包括:開發和訪問各種數據集,以滿足各種人工智能興趣和應用程序的需要、使培訓和測試資源符合商業和公共利益、開發開源軟件庫和工具包。
戰略六:制定標準和基準以測量和評估人工智能技術。
**評估、促進並確保人工智能各個方面的可信度都需要通過一定的基準和標準來度量和評估人工智能技術的性能。人工智能除了要安全,可靠,有彈性,可解釋和透明之外,還必須能夠在檢測和避免不適當的偏見的同時保護隱私。隨着人工智能技術的發展,需要開發新的度量標準和測試需求來驗證這些基本特徵。可以取得進展的領域有:制定廣泛的人工智能標準、**建立人工智能技術基準、提高人工智能測試平台的可用性、讓人工智能社羣參與標準和基準測試。
戰略七:更好地瞭解國家人工智能的研發人力需求。
自2016年《國家人工智能研發戰略規劃》發佈以來,對人工智能研究人員和從業者的需求迅速增長。研究表明,未來十年,就業機會預計將增加到數百萬。雖然目前沒有官方的人工智能勞動力數據,但最近來自商業和學術領域的大量報告顯示,可用的人工智能專家越來越少。據報道,人工智能專家供不應求,預計需求將繼續上升;高科技公司正在投入大量資源招聘具有人工智能專長的教職員工和學生;各大高校與各行各業都在為招募和留住人工智能人才而戰。我們應該研究並探索人工智能勞動市場的供需結構以預測未來的勞動力需求,還需要了解預計的人工智能研發的勞動力通道,並考慮教育途徑和可能的再培訓機會。
戰略八:擴大公私合作以加速人工智能發展。
**戰略八新增於2019年版本中,其反映了公私合作伙伴關係對人工智能研發日益重要。**自2016年國家人工智能研發戰略計劃發佈以來,人們更加重視公私合作伙伴關係的好處。這些好處包括戰略性地利用資源,包括設施、數據集和專業知識,以推進科學和工程創新;加快這些創新向實踐的轉變;加強對下一代研究人員、技術人員和領導人的教育和培訓。這些夥伴關係建立在各個聯邦機構聯合參與的基礎上,在機構任務交叉的領域中發揮協同作用。美國還受益於聯邦機構和國際投資者之間的關係,他們通過共同努力來解決各個學科共同關心的關鍵挑戰。公私合作伙伴關係有許多結構和機制,常見的參與類別有:
1. 基於項目的個人協作。
2. 項目聯合以促進開放的、預競爭的基礎研究。
3. 合作部署並加強基礎架構研究。
4. 加強人力開發的合作,包括擴大參與。
在每一種情況下,為了所有美國人的利益,利用每個合作伙伴的優勢對成功至關重要。