在 AI 晶片市場佔有先機的 Nvidia 在最近 AI 熱潮下相當受人矚目,他們早前就在 Computex 大會上公佈 Grace Hopper AI 晶片,可以用於建立超級運算中心。
在 Computex 大會上,Nvidia 宣佈已經開始量產 Grace Hopper 超級晶片 (GH200),這晶片結合了 Nvidia 的 Grace CPU 和 Hopper GPU 架構,使用 NVLink-C2C 互聯技術,提供高達 900GB/s 的總帶寬,比標準 PCIe Gen5 通道的帶寬高出 7 倍,可以用於進行複雜的人工智能和高性能運算工作負載。
Nvidia 總裁黃仁勳在演講中強調,目前的運算需求已經從 CPU 變成主要使用 GPU,由 GPU 組成的大型運算中心比以 CPU 組成的運算中心,在耗電和效能上都大幅優勝,配合 AI 潮流,將會是是未來的大趨勢。Google Cloud、 Meta、Microsoft 等大型科技企業都將成為採用配備 GH200 Grace Hopper 的 DGX GH200 伺服器產品的首批客戶,預計將會在今年稍後開始出貨。
來源:Nvidia
相關文章:
【教學】ChatGPT 視像隔空教你養魚 用相機攝取現場環境 實時 AI 回應用家問題 【教學】冗長文章 AI 變成有趣電台節目 Reader by ElevenLabs「聽」文章不再暈車浪 + 學習外語方便 【教學】MacWhisper 語音轉錄文字 AI 工具 本地 AI 模型處理 + 支援廣東話、多國語言 + 輸出字幕檔