中國科協發佈的2023重大科學問題中,“如何實現低能耗人工智能”被排在首位_風聞
硬盘硬 软件软-11-03 20:46
【本文由“eagle”推薦,來自《我國科學家研製出首個全模擬光電智能計算芯片》評論區,標題為小編添加】
- guan_16424016992528
- 來個學習委員解讀一下。
之前中國企業利用Chiplet技術,把傳輸速度被限制的AI芯片給串起來用,同樣達到了效果,美國不得不修改禁令,把性能標準降低,不再限制傳輸速度。
但現在這顆芯片和華為的Mate60一樣,雖然現在還無法完全看到效果,但很可能又讓美國對中國的AI芯片禁令,禁了個寂寞。
這顆芯片,在包括ImageNet等智能視覺任務實測中,相同準確率下,比現有高性能GPU算力提升3000倍,能效提升400萬倍。就算是特定場景,這個能耗也逆天了。
另外,由於超低功耗和模擬電子計算,所以芯片的製程只有180nm。這個製程,全去美設備的產線都可以製造了。
中國科協發佈的2023重大科學問題中“如何實現低能耗人工智能”被排在首位。
目前由於摩爾定律,AI芯片的性能大規模提升和功耗大規模降低被硬件嚴重製約,而光計算以其超高的並行度和速度,被認為是未來顛覆性計算架構的最有力競爭方案之一,但光計算目前有三大瓶頸,一是如何在一枚芯片上集成大規模的計算單元(可控神經元),且約束誤差累計程度;二是實現高速高效的片上非線性;三是為兼容目前以電子信號為主體的信息社會,如何提供光計算與電子信號計算的高效接口。
清華大學的這顆芯片,提出了模擬電融合模擬光的計算框架,利用光電流直接進行基於基爾霍夫定律的純模擬電子計算,兩者集成在同一枚芯片框架內,完成了“傳感前 傳感中 近傳感”的新型計算系統。在一枚芯片上突破大規模集成、高效非線性、高速光電接口三個關鍵瓶頸。
不過,目前還是主要用於圖像處理,自動駕駛的AI專用芯片,但思路和計算架構確定了,未來的前景廣闊。