中國國家互聯網信息辦公室、工業和信息化部、公安部聯合發布《互聯網信息服務深度合成管理規定》,禁止創建沒有明確標記(如浮水印)的 AI 媒體創作規定,並將於 2023年1月10 日生效。
規定指出,面對深度合成技術快速發展,一些用於製作、複製、發布、傳播違法和不良信息,詆毀、貶損他人名譽、榮譽,仿冒他人身份實施詐騙等情況陸續出現。為加強監管,規定指智能對話、合成人聲、人臉生成、沈浸式擬真場景等都應該進行顯著標記。任何組織及個人皆不能採用技術刪除、篡改、隱匿相關標記。
深度合成技術供應者應與網信部門和有關主管部門開展的監督檢查,並提供必要的支持和協助,定期審核、評估、驗證算法。同時必須對使用者進行真實身份認證,加強深度合成內容管理,建立辟謠機制和申訴、舉報機制,落實安全管理責任。
國家互聯網信息辦公室負責人指,深度合成服務治理需要政府、企業、社會、網民等多方主體共同參與,積極防範化解深度合成技術帶來的風險,促進互聯網信息服務健康發展,維護網絡空間良好生態。
資料來源:國家互聯網信息辦公室
圖片來源:viterbischool
相關文章:
WhatsApp 直接加入 Copilot 教學 輕鬆與 Microsoft AI 助理對話 字節跳動起訴前實習生索賠800萬 涉篡改程式碼攻擊 AI 模型 中國計劃 2030 年前中小學教 AI 引導學生合理使用生成式 AI 工具