AI 代理正迅速成為企業轉型的下一個前沿。根據 Capgemini 的調查,82% 的組織計劃在未來三年內採用 AI 代理,10% 的組織已經使用 AI 代理,超過一半的組織計劃在未來一年內使用。最近發佈的 DeepSeek-R1 模型為開源社群帶來了最新的推理能力,組織可以使用這些模型構建智能應用,執行複雜任務,提升效率和適應性。
在這篇文章中,我們將展示如何使用 Amazon SageMaker AI —— 一個完全管理的服務,能夠大規模構建、訓練和部署機器學習模型,並使用 CrewAI(一個流行的智能代理框架)和開源模型如 DeepSeek-R1 來構建 AI 代理。
智能設計 vs. 傳統軟件設計
智能系統與傳統軟件在處理複雜、動態和領域特定挑戰方面提供了根本不同的方法。智能系統由大型語言模型(LLMs)驅動,可以自主運行,從環境中學習,並做出微妙、上下文感知的決策。這是透過模塊化組件來實現的,包括推理、記憶、認知技能和工具,使它們能夠執行複雜任務並適應變化的場景。
傳統軟件平台雖然在處理例行任務和水平擴展方面非常有效,但通常缺乏智能系統提供的領域特定智能和靈活性。例如,在製造環境中,傳統系統可能會跟踪庫存,但缺乏預測供應鏈中斷或使用即時市場見解優化採購的能力。相比之下,智能系統可以處理實時數據,如庫存波動、客戶偏好和環境因素,主動調整策略並在中斷期間重新路由供應鏈。
企業應該戰略性地考慮在需要適應性和領域特定專業知識的情況下部署智能系統。例如,考慮客戶服務。傳統聊天機器人僅限於對預設客戶查詢的預編程回應,但 AI 代理可以使用自然語言與客戶互動,提供個人化幫助,並更有效地解決查詢。AI 代理可以透過自動化重複任務(如生成報告、電子郵件和軟件代碼)來顯著提高生產力。智能系統的部署應集中在具有明確成功指標的定義過程中,並且在流程管理中具有更大靈活性和更少僵化的潛力。
DeepSeek-R1
在這篇文章中,我們將展示如何將 DeepSeek-R1 部署到 SageMaker,特別是 Llama-70b 濃縮變體 DeepSeek-R1-Distill-Llama-70B 到 SageMaker 實時端點。DeepSeek-R1 是由 AI 初創公司 DeepSeek 開發的先進 LLM,它使用強化學習技術來增強其推理能力,使其能夠執行複雜任務,如數學問題解決和編碼。
DeepSeek-R1 模型現已在 Amazon Bedrock Marketplace 和 Amazon SageMaker JumpStart 上提供,並深入了解構建 DeepSeek-R1 背後的理論。
相關文章:
Prime Video 體育直播引入 AWS 生成式 AI 技術 提升觀眾體驗及直播穩定性 AWS 網上講座助提升企業競爭力 構建生成式 AI 時代的統一數據基礎架構 豐田汽車採用 Amazon Q Developer 處理舊代碼 兩年內完成系統升級
在 SageMaker AI 上的生成 AI
SageMaker AI 是一個完全管理的服務,提供一套全面的工具,旨在為多種用途提供高性能、成本效益的機器學習(ML)和生成 AI 解決方案。SageMaker AI 能夠透過一系列服務(包括筆記本、作業、托管、實驗追蹤、精選模型中心和 MLOps 功能)在統一的整合開發環境(IDE)中構建、訓練、部署、監控和管理 ML 和生成 AI 模型。
SageMaker AI 簡化了生成 AI 模型構建者的所有技能水平的流程,以便與基礎模型(FMs)一起使用:
- Amazon SageMaker Canvas 使數據科學家能夠無縫地使用其自有數據集與 FMs 一起建立應用程式和架構模式(如聊天機器人和檢索增強生成(RAG)),在低代碼或無代碼環境中。
- Amazon SageMaker JumpStart 提供了來自提供商(如 Hugging Face、Meta 和 Stability AI)的開放和專有 FMs 的多樣選擇。用戶可以透過直觀的用戶界面或 API 部署或微調模型,提供所有技能水平的靈活性。
- SageMaker AI 功能(如筆記本、Amazon SageMaker Training、推理、Amazon SageMaker for MLOps 和合作夥伴 AI 應用程式)使高級模型構建者能夠使用 LoRA、完全微調或從頭開始訓練來適應 FMs。
這些服務支援從單個 GPU 到 HyperPods(GPU 集群)的訓練,並包括用於追蹤、調試和部署的內置 FMOps 工具。
解決方案概述
CrewAI 提供了一個強大的框架,用於開發與 AWS 服務整合的多代理系統,特別是 SageMaker AI。該框架在工作流程編排方面表現出色,並保持與 AWS 最佳實踐相一致的企業級安全標準,使其成為在 AWS 基礎設施中實施複雜代理系統的有效解決方案。
如何開始
要遵循本文中的代碼例子,請確保滿足以下先決條件:
- 整合開發環境 – 包括存取 Amazon SageMaker Studio 和 JupyterLab IDE。
- 部署模型的權限 – 確保用戶執行角色具有將模型部署到 SageMaker 實時端點的必要權限。
- 存取 Hugging Face Hub – 確保能夠存取 Hugging Face Hub 的 DeepSeek-R1 模型權重。
- 在編排智能工作流程之前,首先需要托管和查詢 LLM。可以從 SageMaker JumpStart 或 Hugging Face Hub 部署 LLMs。
- 完成後,請刪除 GPU 端點並關閉 JupyterLab 筆記本實例。
想了解更多關於如何使用 AWS 構建智能代理解決方案的資訊,可以參考 AWS Blog。
相關文章:
Prime Video 體育直播引入 AWS 生成式 AI 技術 提升觀眾體驗及直播穩定性 AWS 網上講座助提升企業競爭力 構建生成式 AI 時代的統一數據基礎架構 豐田汽車採用 Amazon Q Developer 處理舊代碼 兩年內完成系統升級
分享到 :
最新影片
