Meta 近日發佈了最新一代的 Llama 3.2 大型語言模型,Amazon Bedrock 平台已率先支援使用。這次更新不僅提升了模型性能,更新增了多模態視覺功能,為 AI 應用開發帶來更多可能性。
Llama 3.2 主要亮點:
- 推出多個規模的模型:從輕量級的 1B 和 3B 參數模型,到中大型的 11B 和 90B 參數模型。
- 11B 和 90B 模型首次支援視覺任務:能夠理解和分析高解析度圖像。
- 支援 128K 上下文長度:保持了 Llama 3.1 的擴展 token 容量。
- 改進多語言支援:覆蓋英語、德語、法語、意大利語、葡萄牙語、印地語、西班牙語和泰語。
整合 Llama Stack:標準化接口使開發和部署更加便捷。
Amazon Bedrock 現已支援四個新的 Llama 3.2 模型:
- 90B Vision:最先進的企業級模型,支援文本和圖像輸入。
- 11B Vision:適合內容創作、對話 AI 等需要視覺推理的應用
- 3B:適用於低延遲推理和資源受限的場景。
- 1B:最輕量級模型,適合邊緣裝置和流動應用。
開發者可以透過 Amazon Bedrock 控制台請求存取這些新模型,並使用 playground 進行測試。此外,Amazon SageMaker JumpStart 也支援部署這些預訓練模型,並提供了 fine-tuning 的功能。
Llama 3.2 的架構最佳化包括自回歸語言模型、監督式微調(SFT)、人類反饋強化學習(RLHF)等技術。視覺模型還引入了創新的圖像理解方法,將圖像推理適配器權重與核心 LLM 權重整合。
隨著生成式 AI 技術的快速發展,Llama 3.2 的推出為開發者提供了更強大、更靈活的工具,有望推動更多創新 AI 應用的誕生。
相關文章:
AWS 推出基於機器學習的 EC2 容量區塊 多種預訂方式便利企業 AI 開發 Amazon EC2 釋放 UltraClusters 與 P5e 實例潛能 企業實現 AI 轉型更輕鬆 AWS 與 NVIDIA 兩強聯手 共同邁向 AI 研發競賽之路