美國外交關係協會(CFR)舉行了一場 CEO 講座系列活動,邀請 Anthropic 共同創辦人兼 CEO Dario Amodei 分享他對人工智慧(AI)發展趨勢的見解。他認為 AI 取代人類的進程已經殺到埋身,年半內 AI 將寫所有程式碼,而所有工作都會逐漸被 AI 取代。
Dario Amodei 曾於 OpenAI 擔任研究副總裁,負責開發 GPT-2 及 GPT-3。他指出,2020 年年底,他與一群共同創辦人因認為 OpenAI 未能充分重視 AI 技術帶來的長遠影響,因此決定創立 Anthropic,專注於以公共利益為優先的 AI 發展。他認為 AI 的表現隨著運算能力與數據增長而提升,對經濟與國家安全產生深遠影響。
AI 發展的挑戰與風險
Dario Amodei 形容 AI 像是「成長」而非「建造」,其學習過程類似於人類大腦發育,因此難以完全控制。他強調,訓練過程的不確定性使得 AI 的可預測性與可靠性成為重要的技術挑戰。Anthropic 研究致力理解 AI 為何做出特定決策。為提高 AI 可控性,Anthropic 引入「憲法式 AI」,讓 AI 依據既定原則學習,而非完全依賴大規模數據與人類反饋,使 AI 企業能夠清楚地向政府與社會解釋模型的訓練原則。Anthropic 推出「負責任的規模政策」,針對 AI 風險進行分級,並根據 AI 模型能力的提升採取更加嚴格的安全與部署措施。例如,最新的模型已接近 ASL-3(高級安全層級),顯示其具備影響國家安全的潛力。
AI 帶來的機遇與挑戰
Dario Amodei 強調,AI 可能在生物醫學等領域帶來突破,例如透過 AI 技術,數十年的生物研究進展或能在一年內完成。AI 具備與諾貝爾獎級科學家相當的智慧,這將對學術與工業發展帶來巨大影響。AI 技術已在程式設計領域展現極高效能,並可能影響更廣泛的職業市場。Amodei 提出,傳統「比較優勢」理論可能無法適用於 AI 時代,社會需要重新思考「有用性」與「無用性」的概念。
Dario Amodei 支持對高階 AI 晶片進行出口管制,以防止中國獲取足夠的計算能力來訓練最先進 AI 模型。他認為 AI 晶片比武器與毒品更應受到嚴格監管。他建議設立 AI 安全機構,專門負責國家安全風險評估,例如 AI 在生物技術與核武器領域的應用。他認為有助於防範 AI 風險,也可用於評估他國 AI 能力。Anthropic 支持 AI 用於國家安全,例如協助情報分析與防禦,但同時強調應設立明確的倫理與安全規範。
Dario Amodei 認為,AI 可能在未來 18 個月內完全掌握程式設計能力,甚至影響所有產業。他強調,社會應盡早面對 AI 取代人類工作的現實,並制定適當政策以確保技術發展帶來正面影響。他認為,全球應該以更高的標準來監管 AI 技術,以確保其安全發展。
Dario Amodei 認為 AI 技術發展快速,既帶來巨大機遇,也伴隨潛在風險。政府、企業與社會需要共同努力,以制定適當的監管措施,確保 AI 能夠在人類可控的範圍內發展,並造福全人類。
資料來源:YouTube
相關文章:
Anthropic CEO:「DeepSeek 提供生物武器敏感資訊」 生成危險資訊能力或成問題 Elon Musk:AI 訓練去年已用光全球所有資料 需自行生成數據繼續訓練 Anthropic 與唱片公司達成協議 解決相關版權爭議
分享到 :
最新影片
