Categories: 生活科技

iOS 15自動模糊相片 阻兒童色情內容傳播

Published by
Chris
Share

Apple 一向重視私隱,近日更推出新「兒童保護」政策並引入 3 項全新機制,自動偵測 iPhone、iCloud 可能存在的兒童色情圖片,期望能同時兼顧私隱及避免兒童色情內容外流。功能預計於最新版本的 iOS 15、iPadOS 15 及 macOS Monterey 推出。

 

 

近日,Apple 宣布推出「兒童保護」(Child Safety)政策,新政策將會引入 3 項全新機制。Apple 將會採用與 Google、Microsoft 類似的做法,系統將會主動將可疑照片數據透過新的密碼學程式轉換為不可讀取的數值,並僅儲存於用戶設備中。同時,系統亦會在上傳至 iCloud 的過程中進行兒童色情內容檢查。

 

 

若有綁定家庭帳號,家長將會於 Apple 裝置內置的 Messages 上收到通知,而當兒童收到色情內容時亦會為照片進行模糊處理並彈出警示。而 Siri 和搜尋系統亦會在兒童搜尋兒童色情相關內容時,彈出提醒並主動解釋行為不恰當,同時為用戶提供諮詢渠道。而迢項功能預計在最新版本的 iOS 15、iPadOS 15 及 macOS Monterey 推出。

 

資料來源:9TO5MAC

unwire.hk Mewe 專頁 : https://mewe.com/p/unwirehk


相關文章:
  • Apple 承認 iPhone 鬧鐘無聲問題 將推系統更新解決
  • 挖角多名 Google AI 專家 Apple 瑞士蘇黎世設神秘實驗室
  • 人工智能脫衣程式 強制從 App Store 下架 Apple 被批反應緩慢

  • Published by
    Chris