英偉達GTC 公告確認這是一個互聯的多芯片世界_風聞
元界矩阵-2022-03-23 20:14

在 Nvidia 最新 GTC 的主題演講中,首席執行官 Jensen Huang 公佈了一系列新進展,包括最新的 GPU 架構和多種形式的高速芯片到芯片和設備到設備連接選項。
總的來説,該公司利用這些關鍵技術進步推出了從巨大的 Eos 超級計算機到 H100 CNX 融合加速器(一種專為現有服務器設計的 PCIe 卡)的所有產品,以及介於兩者之間的許多其他選項。
Nvidia 的重點是由行業對人工智能和機器學習進步的不懈追求所驅動。事實上,該公司在展會上發佈的許多芯片、硬件和軟件公告中的大多數都與這些關鍵趨勢有關。
觀察過去幾年計算行業的發展是一項令人着迷的練習。經過幾十年幾乎只專注於一種芯片——CPU(中央處理單元)——並通過改進其內部架構來衡量改進後,已經發生了向多種芯片類型的巨大轉變,尤其是 GPU(圖形處理單元),組件之間的高速連接可以提高性能。
在 Nvidia(納斯達克股票代碼:NVDA)最新的 GTC 或 GPU 技術大會上,這一點從未如此清晰。在活動的主題演講中,公司首席執行官 Jensen Huang 展示了一系列新進展,包括最新的 GPU 架構(以計算先驅 Grace Hopper 命名的 Hopper)以及多種形式的高速芯片到芯片和設備到設備連接選項。
總的來説,該公司利用這些關鍵技術進步推出了從巨大的 Eos 超級計算機到 H100 CNX 融合加速器(一種專為現有服務器設計的 PCIe 卡)的所有產品,以及介於兩者之間的許多其他選項。
Nvidia 的重點是由行業對人工智能和機器學習進步的不懈追求所驅動。事實上,該公司在展會上發佈的大多數芯片、硬件和軟件公告都與這些關鍵趨勢相關,無論是 HPC(高性能計算)類型的超級計算應用、自動駕駛系統還是嵌入式機器人應用。
説到這一點,英偉達在 2022 年春季 GTC 上還強烈強調它不僅僅是一家芯片公司,它為其現有工具和平台提供重要的軟件更新,特別是 Omniverse 3D 協作和模擬套件。為了鼓勵更多地使用該工具,Nvidia 宣佈推出 Omniverse Cloud,任何人都可以通過瀏覽器嘗試 Omniverse。
對於希望部署高級 AI 應用程序的超大規模企業和大型企業,該公司還推出了多個雲原生應用程序服務的新版本或更新版本,包括用於推薦系統的 Merlin 1.0,以及 Riva 語音識別和文本轉語音的 2.0 版本服務以及 AI Enterprise,適用於各種數據科學和分析應用程序。
AI Enterprise 2.0 的新功能是對虛擬化的支持以及跨多個平台使用容器的能力,包括 VMware(VMW) 和紅帽。總體而言,這些產品反映了該公司作為軟件提供商的不斷發展。它正在從一種以工具為中心的方法轉變為一種提供 SaaS 風格的應用程序的方法,這些應用程序可以部署在所有主要的公共雲中,也可以通過戴爾科技 ( DELL )、惠普企業 (Hewlett Packard Enterprise) 等公司的本地服務器硬件進行部署。HPE)和聯想(OTCPK:LNVGY)。
然而,永遠不要忘記它的根源,Nvidia 最新 GTC 的明星是新的 Hopper GPU 架構和公司推出的 H100 數據中心 GPU。基於 4 nm 工藝的 Nvidia H100 擁有高達 800 億個晶體管,支持多項重要的架構進步。首先,為了加快基於 Transformer 的新 AI 模型(例如驅動 GPT-3 自然語言引擎的模型)的性能,H100 包含一個 Transformer 引擎,該公司聲稱該引擎與之前的 Ampere 架構相比具有 6 倍的改進。它還包括一組名為 DPX 的新指令,旨在加速動態編程,這是一種由基因組學和蛋白質組學等應用程序利用的技術,以前在 CPU 或 FPGA 上運行。
對於注重隱私的應用程序,H100 還是第一款支持機密計算的 GPU 或加速器(之前的實施僅使用 CPU),允許通過虛擬化可信執行環境加密和保護模型和數據。該架構確實允許在機密計算模式下進行聯合學習,這意味着擁有私有數據集的多家公司都可以通過在不同的安全環境中傳遞相同的模型來訓練相同的模型。此外,得益於第二代多實例 GPU 或 MIG 的實現,單個物理 GPU 可以拆分為七個獨立的隔離工作負載,從而提高了芯片在共享環境中的效率。
最後,Hopper 還支持 Nvidia 的 NVLink 的第四代版本,這是一個重大飛躍,與以前的技術相比,帶寬增加了 9 倍,支持連接多達 256 個 GPU,並支持使用 NVLink Switch。後者不僅可以在單個系統內保持高速連接,還可以在外部系統內保持高速連接。這反過來又啓用了一系列新的 DGX Pods 和 DGX SuperPods、Nvidia 自有品牌的超級計算機硬件,以及前面提到的 Eos 超級計算機。
談到 NVLink 和物理連接,該公司還宣佈支持一種名為 Nvidia NVLink-C2C 的新芯片到芯片技術,該技術專為芯片到芯片和芯片到芯片的連接而設計,速度高達 900 Gbps。英偉達組件。最重要的是,該公司開放了以前專有的 NVLink 標準以與其他芯片供應商合作,並特別宣佈它還將支持新推出的 UCIe 標準。這讓該公司在如何與其他人合作創建異構部件方面具有更大的靈活性,正如半導體行業的其他人已經開始做的那樣。
Nvidia 選擇利用自己的 NVLink-C2C 開發新的 Grace Superchip,該芯片結合了公司先前宣佈的兩個基於 Arm 的 CPU,並透露去年預覽的 Grace Hopper 超級芯片使用相同的互連技術來提供高速連接在其單個 Grace CPU 和 Hopper GPU 之間。這兩個“超級芯片”都針對數據中心應用程序,但它們的架構和底層技術很好地瞭解了我們可能期望看到 PC 和其他主流應用程序的發展方向。NVLink-C2C 標準支持 Arm 的 AMBA CHI 協議和 CXL 等行業連接標準,也可用於互連 DPU(數據處理單元),以幫助加快系統內部和跨系統的關鍵數據傳輸。
除了所有這些以數據中心為重點的公告外,英偉達還為其用於輔助和自動駕駛的 Drive Orin 平台以及用於機器人技術的 Jetson 和 Isaac Orin 平台推出了更新和更多真實世界的客户。
總而言之,這是對眾多技術、芯片、系統和平台的一次令人印象深刻的發佈。顯而易見的是,未來要求苛刻的 AI 應用程序以及其他艱鉅的計算挑戰將需要多個不同的元素協同工作來完成給定的任務。
因此,增加芯片類型的多樣性以及允許它們相互通信的機制將與單個類別的進步一樣重要——如果不是更重要的話。更簡潔地説,我們顯然正走向一個互聯的、多芯片的世界。
來源:元界矩陣