人工智能(AI)快速發展,經濟、物理及道德三大限制逐漸浮現,正重塑 AI 產業未來走向。過去兩年 AI 成長主要依賴資本無限流入,但市場需求不斷變化,經濟限制開始顯現。雖然收入有增長,卻高度集中在少數公司,令固定成本上升速度比收益快,加劇市場不平衡。
經濟泡沫風險浮現
Goldman Sachs 最新警告指出,如果業界無法有效將 AI 模型商業化,數據中心投資可能無法獲得預期回報。目前許多 AI 應用仍採用免費模式,用戶是否願意轉為付費使用仍是未知數。據報 Microsoft 在說服客戶為每個席位支付 30 美元(約港幣 HK$234)使用 Copilot 時遇到困難。Bloomberg 數據顯示,大型科技公司今年累積近 2,500 億美元(約港幣 1.95 兆元)債務,創歷史新高。Morgan Stanley 分析師預測需要填補 1.5 兆美元(約港幣 11.7 兆元)資金缺口,以應對數據中心及硬件開支增加。
能源與基建成致命瓶頸
物理層面限制同樣嚴峻,AI 運作高度依賴數據中心,但建設面臨能源、土地及勞動力三大瓶頸。Goldman Sachs Research 預測,全球數據中心電力需求將在 2030 年較 2023 年水平上升 165%。國際能源署報告指出,全球數據中心在 2024 年消耗約 415 TWh 電力,預計到 2030 年將增至 945 TWh,AI 被視為增長主要驅動力。數據中心土地可用性有限,建設過程可能破壞當地生態,引發環境及資源可持續性問題。CNBC 報導,美國數據中心建設面臨高達 190 萬勞動力短缺,對建設及維護構成巨大挑戰。
道德風險威脅人類主導權
道德限制是影響性最高的因素。AI 越強大,將決策權全部交給機器的誘惑也越高,但這會削弱人類主動性,令責任模糊及社會契約弱化。研究指出,真正的管治需要人類解讀而非單靠檢查,AI 輸出應始終視為建議而非權威。當決策看似來自系統而非人員時,問責制會變得模糊,語言也從「我批准」轉變為「系統處理」。道德限制要求 AI 系統保持人類主導地位,確保人類站在監督及責任明確位置。
雖然 AI 潛力龐大且在美國經濟已佔據相當大增長份額,但三大限制均不容忽視。經濟限制將懲罰過度擴張,物理限制令數碼雄心與現實結合,道德限制則決定社會能否掌控智慧系統。未來 AI 發展必須在穩定性、可持續性及人類控制範圍內進行,以確保人類真正受惠於 AI 進步。
分享到 :
最新影片