越來越多人使用的通訊平台 Telegram,最近爆出合成裸照事件。網絡資訊保安研究機構 Sensity 早前發表報告,指一個 Deepfake 合成裸照的組織隱身於 Telegram,並且會將上傳的女性圖片,自動以人工智能合成不雅裸照,估計至少有 10.48 萬名女士被改圖。
根據 Sensity 的調查,這個人工智能機械人最早在 2019 年年中出現,透過深度學習 Deepfake 技術,可以將原本穿著衣服的照片變成裸體照片。有人於通訊平台 Telegram 開始了 7 個頻道散播這個工具。這些頻道累計用戶人數超過 10 萬,加入的人將女性相片上傳後,相片就會被 Deepfake 改圖變成裸照。
Sensity 追蹤這個機械人的使用狀況,發現有 7 成用戶來自俄羅斯或前蘇聯國家,其次是西班牙和拉丁美洲國家,當中有 7 成的使用者表示相片是通過社交平台或其他私人渠道取得。始作俑者甚至在俄羅斯社交平台 VK 賣廣告宣傳,Sensity 已經通知 Telegram、VK 和執法機構,又在報告中提出警告,憂慮 Deepfake 不雅照會在私人頻道中流傳,甚至會被公開並用作敲詐或網絡欺凌的材料。
來源:forbes
相關文章:
改良 AI 助封 1500萬個可疑 TG 群組頻道