《紐約時報》日前報導一名化名 Mark 的男子,在 2021 年 2 月因為兒子的生殖器出現感染,於是拍下照片發送給醫生。由於是在疫情爆發期間,診症都改以網上形式進行,護士要求孩子的家長透過 Google 雲端服務,先行將照片上傳給醫生。
結果 Google 不但將 Mark 上傳的照片認定為兒童性虐待內容(CSAM),更向警方報案,最後展開性虐兒童的調查。Mark 兒子的身體不適很快就得到解決,不過他的 Google 帳號則因為「有害內容」而遭到凍結。報導提到 Google 在去年檢舉你超過 60 萬宗 CSAM 個案,並凍結逾 27 萬用戶帳號。Google 利用人工智能掃描照片,一旦有發現就要按法例要求通報有關機構。一般情況下,當人工智能將相片標記為 CSAM 後,管理人員應該會覆核照片是否符合 CSAM 的原則。
雖然 Mark 很快就向 Google 上訴,但他已經無法使用電郵、聯絡人、文件和電話合約,三藩市警方亦開始就事件展開調查。事件擾攘了數個月,警方認為 Mark 沒有犯罪,他被告知有關當局詳細檢查了他的互聯網搜尋記錄、位置歷史、訊息、所有在雲端儲存的相片和影片,而 Mark 始終未能取回其 Google 帳號。有法律學者直言在最壞的情況下,父母甚至會因此失去孩子的撫養權。
資料及圖片來源:petapixel
unwire.hk Mewe 專頁: https://mewe.com/p/unwirehk
相關文章:
【教學】iOS 18.2 香港如何用 ChatGPT 詳細方法 + 機種限定 Google 外判 AI 回覆審查指引惹爭議 非專業人士也需要處理專業範疇內容 Google Veo 2 AI 影片生成懶人包 圖片變影片 + 物理模擬極真實 + 穩定生成單一角色