AI 人工智能技術發展蓬勃,各類型 AI 應用亦如雨後春筍,逐步改變人類社會的生活面貌,但面對晶片出現供應不足、產量受限、價格高昂等情況,不少企業亦轉用雲端計算服務,務求以更低成本,支援 AI 進行更高效的運算及學習,推動各式各樣的 AI 應用。在 AI 研發及技術推動方面,早前 AWS 與 NVIDIA 就宣佈合作,全球最大型網絡服務供應商,遇上最炙手可熱的圖像處理器生產商,帶來的「雲端計算」體驗與創新令人期待。
在去年底舉辦的 AWS 雲端科技發表會(AWS re:Invent)上,Amazon Web Services(AWS)就宣布與 NVIDIA 擴大策略合作,內容包括 AWS 旗下的雲端服務 Amazon EC2,AWS EC2 將採用 NVIDIA 的超級電腦晶片 H200 GPU,並提供適用於大規模和尖端「生成式 AI」和高效能運算工作的執行個體 P5e,以及適用於微調 AI、推論、圖形及影片生成工作的執行個體 G6 和 G6e。
AWS 與 NVIDIA 兩強合作自然令人注目,尤其是 NVIDIA 推出了新一代、被人稱為「為 AI 而生」的 AI 超級電腦晶片 H200。新一代的 H200 不但能以 4.8 TB/s 的速度提供 141 GB 記憶體,不只內存容量較 H100 多近兩倍,頻寬(Bandwidth)亦較前一代 H100 多 2.4 倍。簡單而言,如同樣用作推動 AI 運算工作,H200 更大的內存量能讓更大更多的模型和數據集直接儲存在 GPU 上,從而減少數據傳輸的延遲,H200 升級後的頻寬亦能讓數據更快傳送到處理核心。
如單純比較 H100 與 H200 的規格,從效能上來說,H200 在使用特定的「生成式 AI」和高效能計算(HPC)基準測試之中,效能就較 H100 提高達 45%,如以運行 Llama 2 模型為例,H200 的速度就較上一代快近兩倍,絕對是使用「生成式 AI」的最佳 GPU;而作為全球大型雲端網絡服務供應商,AWS 正好以 EC2 向客戶提供使用 H200 的最佳方式:一個成本更低、效率更高的雲端服務。
此外,會上 AWS 亦宣佈與 NVIDIA 合作推出採用 H200 的 AI 訓練服務 DGX Cloud,該服務由 AWS 托管,能加快尖端「生成式 AI」和參數超過 1 兆的大型語言模型的訓練速度;兩強合作還包括打造世界上最快的 GPU 驅動人工智慧超級電腦 Ceiba,該計劃亦同由 AWS 託管,預計 Ceiba 會是台配備 16,384 個 H200 晶片、能夠處理 65 exaflops 人工智能運算效能的超級電腦。
在 AI 科技發展迅速的時代,AWS 與 NVIDIA 的強強聯手成為 AI 研發競賽路上最令人注目的合作,除了令人更期待它們在晶片、人工智能、雲端運算上如何再進一步,作為普通用家,兩間科技巨擘的合作亦開啟了用戶以更經濟的形式使用最先進「生成式 AI」技術的先河,讓「生成式 AI」技術更普及、更易應用於日常生活之中。
相關文章:
AWS re:Invent 2024 懶人包重點速覽 AWS AI 戰略大揭密 AWS 企業轉型實錄 客戶體驗管理平台 Sprinklr 挑戰 99.99% 系統可靠性 專家預測 2025 年生成式 AI 趨勢 AI 將從構想走向行動新紀元