Meta 近日發佈了最新一代的 Llama 3.2 大型語言模型,Amazon Bedrock 平台已率先支援使用。這次更新不僅提升了模型性能,更新增了多模態視覺功能,為 AI 應用開發帶來更多可能性。
Llama 3.2 主要亮點:
- 推出多個規模的模型:從輕量級的 1B 和 3B 參數模型,到中大型的 11B 和 90B 參數模型。
- 11B 和 90B 模型首次支援視覺任務:能夠理解和分析高解析度圖像。
- 支援 128K 上下文長度:保持了 Llama 3.1 的擴展 token 容量。
- 改進多語言支援:覆蓋英語、德語、法語、意大利語、葡萄牙語、印地語、西班牙語和泰語。
整合 Llama Stack:標準化接口使開發和部署更加便捷。
Amazon Bedrock 現已支援四個新的 Llama 3.2 模型:
- 90B Vision:最先進的企業級模型,支援文本和圖像輸入。
- 11B Vision:適合內容創作、對話 AI 等需要視覺推理的應用
- 3B:適用於低延遲推理和資源受限的場景。
- 1B:最輕量級模型,適合邊緣裝置和流動應用。
開發者可以透過 Amazon Bedrock 控制台請求存取這些新模型,並使用 playground 進行測試。此外,Amazon SageMaker JumpStart 也支援部署這些預訓練模型,並提供了 fine-tuning 的功能。
Llama 3.2 的架構最佳化包括自回歸語言模型、監督式微調(SFT)、人類反饋強化學習(RLHF)等技術。視覺模型還引入了創新的圖像理解方法,將圖像推理適配器權重與核心 LLM 權重整合。
隨著生成式 AI 技術的快速發展,Llama 3.2 的推出為開發者提供了更強大、更靈活的工具,有望推動更多創新 AI 應用的誕生。
相關文章:
AWS 企業轉型實錄 客戶體驗管理平台 Sprinklr 挑戰 99.99% 系統可靠性 專家預測 2025 年生成式 AI 趨勢 AI 將從構想走向行動新紀元 英國第二大連鎖超市 Sainsbury’s 著重科技培訓 參與 AWS Skills Guild 壯大雲端人才庫