人工智能如何幫你看病_風聞
观察者网用户_239377-2020-12-09 11:03
我是張甲木,這裏是回形針事務所,今天我們要研究英特爾搭配了 AI 加速技術的至強處理器。
在人工智能時代,傳統處理器已無法滿足企業對人工智能產品快速推理的需求。為了讓人工智能的應用更便捷、更快速,英特爾對處理器都做了什麼?
2020 年,肺部 CT 等圖像,頻繁出現在大眾視野中。
診斷一位患者,醫生就需仔細觀察超過 300 幅 CT 影像。往日裏,醫生或許能慢慢看。但在疫情之下,這太慢了。
如果醫生診療流程簡化為問診、檢查、看報告、判斷、給出治療方案五個環節。一個會看 CT、能快速做判斷,且不會疲倦的人工智能,就能在第三環節省大量時間。
人工智能如何輔助醫生看病,並分辨出圖像中的異樣?
講人工智能之前,先做一個簡單測試:在這些圖裏找到小狗。
很容易,因為你看過太多動物的圖像,所以能快速做出判斷。就算猛地分不清二哈和阿拉斯加,逼你一直看一直看,一段時間後辨認也不難。
原理很淺顯,無非大腦不斷看圖,提取眼睛、耳朵、整體長相等特徵,在腦海中強化,最後分類。
同理,讓機器重複一樣的過程就行,簡單。但機器有個問題——沒腦子。
怎麼辦!只能先給機器搭一個人工神經網絡。
大概長這樣,像簡化後平面化的人腦神經網絡。在最左邊的輸入層輸入訓練圖像,激活中間一層層設好參數的人工神經網絡,在最右邊輸出層輸出結果。
注意,這張圖人眼看是這樣。但對機器,黑白只是灰度值,本質就是一堆數字。所以,機器學習圖像的本質是學數值的特徵。

但一個一個學,運算量太大,尤其遇到超高清圖片,數值太多了。
所以為了提取特徵也減少運算,我們用這樣叫「卷積核」的東西,一個區域一個區域地掃,將每個對應的數字相乘,再求和,就提取了區域數值特徵。

數據再經過一個叫「池化」的環節,像這樣取區域內最大值,將特徵數據量再濃縮、展平、輸入全神經網絡,這樣就能減少運算量。

因為涉及到卷積運算,所以叫卷積神經網絡。卷積核的大小、步調、卷積層的數量等都可預先調節。
機器輸出的數值會和對目標結果預設的數值做比對。
如果符合預期,即為成功;如果不符合預期,就會通過一系列運算,反向調節各環節參數,再算一次,不斷重複,直到符合預期。這就是機器自主學習的原理。

同理,準備大量肺部 CT 影像,找專業醫生對病灶進行精準標註,然後輸入神經網絡進行訓練,就能得到一個幾秒內快速識別肺部 CT 影像的卷積神經網絡。
這並非構想,該技術在今年的疫情中已經開始應用。
伴隨神經醫學、頸椎病症識別、DNA 檢測和癌症識別等各種場景應用,人工智能正深度重構整個醫療行業。
當然,應對不同問題有不同的神經網絡。但不管搭建訓練哪一種,哪怕放一首歌,對計算機都是在處理不同量級的數據。本質上,一堆 1 和 0。
數據量越大,需處理的 1 和 0 的量也越大,處理慢了就會這樣,或這樣卡屏,甚至崩潰。

究其根本,處理數據的主要核心,就是處理器。
針對人工智能,現在有 GPU,適用多種深度學習應用;ASIC,可針對特定 AI 應用模型定製化開發;FPGA,可靈活編程、匹配不同 AI 應用等等。性能都不錯,但部署和使用的門檻和成本也不低。

而對大多希望利用 AI 解決業務問題,而非專注 AI 算法創新迭代的公司,通用處理器 CPU 因為方便讓企業基於現有 IT 基礎設施執行常見 AI 應用,無需導入專用芯片,則是更好的選擇。
但想針對性地強化 AI 性能,利用 CPU 可以嗎?答案是肯定的,英特爾至強 CPU 就集成了 AI 加速技術。
CPU 完成一次計算大概要經歷以下幾個階段:取出指令、指令解碼並取出數據、執行指令形成計算結果並進行存取。
海量數據的計算就是 CPU 按照指令不斷進行循環操作的過程,所以指令系統直接關係 CPU 性能的發揮。
在傳統標量時代,只能執行單指令單數據,以致處理海量數據時極為耗時。但單指令多數據矢量功能的出現,改變了這個困境,最新的 AVX512 指令集將矢量計算性能提至新高度,大大加快數據處理速度。

而這只是英特爾邁向 AI 領域的基礎之一。雖然大多數商業深度學習都在 CPU 上使用32 位浮點精度進行訓練和推理工作,精確度更高。
但根據研究,用低精度的數據格式推理不會對準確性有很大影響。
且稍低的精度意味可存放更多數據,增加數據傳輸效率,帶來更快的計算速度。所以英特爾採取精度略低的 INT8 格式以達到更高的運算效率。
再配合 VNNI 指令,將需要三條指令完成的工作壓縮為一條,進一步提升推理速度。
如果想要實現效率和精度的雙贏,Bfloat16 則是更優選擇。只通過一半的比特數就可達到與 FP32 相近的模型精度,且速度可以帶來 1.9 倍的提升。
其實,集成了 AI 加速技術的至強 CPU,只是英特爾 AI 全棧解決方案的起點。
英特爾針對 AI 應用還將提供靈活的 FPGA、高性能的 HABANA 芯片、VPU、GPU,以及一個統一的軟件開發和優化工具接口,One API 等等。
隨着硬件基礎的不斷提高,人工智能也正不斷突破着想象中未來的邊界。