Categories: 科技新聞

Apple 解釋兒童性虐審查為何沒實行 掃描私人數據有機會造成嚴重後果

Published by
藍骨
Share

兒童性虐待事件令人髮指,因此透過科技去打擊這些行為也成為一個受注目的解決方式。Apple 在 2021 年曾宣佈掃描用戶的 iCloud 檔案尋找兒童性虐內容的計劃但未有實行,最近就對此作出進一步解釋。

Apple 在 2021 年宣佈將會在其 iCloud 上實行自動檢查,如果發現有兒童性虐待材料(CSAM)就會響起警報並報告予有關部門。不過這個功能當時引起很大爭議,主要是其提供了一個「後門」令用戶的私人數據被審查,而 Apple 最後暫緩功能的推出,最終完全停止開發。

最近有新的團體要求 Apple 實施 CSAM 掃描,Apple 方面堅持不開發類似的功能,同時解釋放棄開發 iCloud CSAM 掃描功能的原因,是因為就算是「出於好意的設計,也無法在實踐中得到充分的保護」。而且掃描每個用戶在 iCloud 上儲存的私人數據,會帶來新的威脅,並可能導致滑坡效應,產生一系列不良後果。Apple 方面表示取而代之的是名為「通訊安全」的工具,在裝置上直接偵測有疑點的照片並發出提醒,避免兒童向他人發送或收取私密色情照片。

來源:Wired


相關文章:
  • Apple 用戶刪除不雅照 4 年 iPhone 升級 iOS 17.5 後突然重現
  • Apple 發表最新輔助使用功能 眼動追蹤 + 音樂觸覺 + 語音捷徑
  • iOS 18 將加入更多輔助使用功能 包括眼動追蹤、音樂觸覺和語音捷徑等

  • Published by
    藍骨