Categories: 資訊保安

Apple 確認 iCloud 相片將被掃描 自動標註有問題兒童照片

Published by
AFLOW
Share

該經 Apple 官方證實,蘋果可能會在 2021 年底時開始掃描 iCloud 照片庫找出潛在的虐待兒童照片,儘管這新功能具有爭議性不過官方還說明不會僅限於新上傳。上週宣布,即將推出的功能將依靠人工智能自動標記兒童性虐待媒體 ( CSAM ),此舉引起一些隱私權倡導者的關注。

 

部分爭議源於蘋果公司決定同時宣布兩款以兒童保護為重點的產品。除了 iCloud 照片掃描系統之外,Apple 還會為父母提供在孩子的 Messages 對話中自動模糊潛在令人反感的圖像功能。外界擔心除了 CSAM 以外的圖片都會被掃描,嚴重影響個人私隱與及令自己個人資料變得不安全。

 

 

據 Apple 稱這功能要到今年年底才會開始投入使用,意味著屆時就會隨著 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 一起發布。不過這似乎並不意味著從現在到那時上傳到 iCloud 照片的圖像,或者確實在新系統發布之前上傳到 iCloud 的圖像不會被掃描,已經上傳到 iCloud 照片的圖像也將被處理。

 

雖然新功能可能被設計為自動發現 CSAM 內容,但是無法直接向執法部門報告。蘋果強調雖然有義務向有關當局報告我們了解到的任何情況,但任何標記的事件都將首先由人工審核檢查,只有在審查過程確認後才會進行報告。

 

來源:The Verge

新增 : unwire.hk Mewe 專頁 : https://mewe.com/p/unwirehk


相關文章:
  • 【教學】iOS 18.1 如何用 Apple Intelligence 只需 2 個設定 + 香港免 VPN 也可用
  • M4 MacBook Pro 開箱影片流出 3 個 USB-C + 標準 16 GB RAM + 跑分結果
  • 【教學】iOS 18 延長電池壽命幫到手 一個設定保養電池

  • Published by
    AFLOW