富士康發佈首個大型語言模型 | 路透社
Reuters
台北,3月10日(路透社) - 台灣的富士康(2317.TW)週一表示,它已推出首個大型語言模型,並計劃利用該技術改善製造和供應鏈管理。該模型名為“FoxBrain”,使用120個Nvidia的(NVDA.O) H100 GPU進行訓練,並在大約四周內完成,全球最大的合同電子製造商在一份聲明中表示。該公司為蘋果(AAPL.O)組裝iPhone,並生產Nvidia的人工智能服務器,表示該模型基於Meta的(META.O) Llama 3.1架構。它是台灣首個具有推理能力的大型語言模型,優化了傳統中文和台灣語言風格。
富士康表示,儘管與中國DeepSeek的蒸餾模型相比存在輕微的性能差距,但其整體性能非常接近世界級標準。

項目1中的2個富士康高能量密度固態鋰金屬電池在2024年10月8日於台北舉行的富士康年度科技日上展示。路透社/安王/檔案照片
在2024年10月8日,富士康在台灣台北的年度科技日上展示了一款高能量密度固態鋰金屬電池。路透社/安王/檔案照片最初設計用於內部應用,FoxBrain涵蓋數據分析、決策支持、文檔協作、數學、推理和問題解決以及代碼生成。
富士康表示,計劃與技術合作夥伴合作,擴展該模型的應用,分享其開源信息,並推動人工智能在製造、供應鏈管理和智能決策中的應用。
富士康表示,Nvidia通過其位於台灣的超級計算機“台北-1”提供支持,並在模型訓練期間提供技術諮詢。
台北-1是台灣最大的超級計算機,由Nvidia在該島南部城市高雄擁有和運營。
富士康將在3月中旬的Nvidia GTC開發者大會上宣佈有關該模型的更多細節。
科技彙總通訊將最新的新聞和趨勢直接送到您的收件箱。註冊這裏。
- 建議主題:
- 中斷