韓國(1 月 22 日)正式實施《人工智能基本法》,成為繼歐盟後全球第二個、亞太地區首個制定全面性人工智能法規國家。這項法律標誌韓國在全球 AI 治理邁出重要一步,同時為應對 AI 技術帶來挑戰奠定基礎。
法律將人工智能系統分為「高風險 AI」和「一般 AI」兩大類別。高風險 AI 指可能對用戶日常生活或安全產生重大影響 AI 模型,涉及就業、貸款審查及醫療建議等應用。使用這類高風險 AI 模型機構必須告知用戶其服務基於 AI,並確保安全性。AI 生成內容必須標註水印以顯示來源。
相比起歐盟 AI Act 採用四個風險級別複雜分類,韓國選擇較簡單雙層分類方式,反映韓國期望在監管與創新之間尋求平衡。
根據法律規定,年收入達 1 萬億韓圜(約港幣 52.7 億元)或以上全球公司,或在韓國日均用戶數達 100 萬公司,必須指定當地代表。目前 OpenAI 和 Google 符合此標準。
違規行為可能面臨最高 3,000 萬韓圜(約港幣 18.4 萬元)罰款。相比下歐盟 AI Act 最高罰款可達全球年營業額 7%,韓國罰則明顯較溫和。政府計劃在執行新規則初期提供一年寬限期,協助私營機構適應新規。
根據科學部表示,《人工智能基本法》期望能建立信任環境,規範 AI 模型安全使用。法案要求企業及 AI 開發者對生成 Deepfake 內容及虛假資訊承擔更大責任,並賦予政府調查及處罰違規行為權力。
法律亦包括促進 AI 產業措施,科學部長每三年需提交一次政策藍圖推動行業發展。這種同時強調監管與創新支援做法,反映韓國在 AI 治理上獨特定位。
然而部分本地初創企業及中小企擔心,全面規範可能阻礙行業發展,並對小型公司造成負擔。
資料來源:科技新報