早前英國一名 14 歲女童在生日前自殺,其父親向法庭提訴,指社交媒體 Instagram 長期向用家展示意識不良的內容,促成女兒自殺。調查指出,Instagram 演算法向 Molly 推薦 476 個帳戶中,有 34 個含有悲傷或抑鬱內容,而她曾觸及的 16,300 個帖子中,有 2,100 個與自殺、抑鬱或自殘有關。
Russell 代表律師 Oliver Sanders KC 在北倫敦死因庭上表示,Molly 在 Instagram上觀看了以自殺、毒品、酒精、抑鬱症和自殘為題的相片及影片,要求驗屍報告就 Instagram 演算法是否試圖讓用戶上癮,最終導致 Molly 在 15 歲生日前夕死亡而進行調查,稱 Instagram 的內容將自殘想法浪漫化。
Meta 健康與福利部門主管 Elizabeth Lagone 否認 Instagram 允許用戶發布有關自殺及自殘內容的指控,稱有關內容也是用戶的求救聲,壓制或刪除用戶上傳相片或會對他們造成難以置信的傷害。
高級驗屍官 Andrew Walker 在庭上播放 17 條 Molly 曾觀看的影片前嚴重警告在場人士,影片內容或會對庭內人士心理造成影響,建議未能承受的人離開。
倫敦警察局在檢閱 Molly 手機後表示,Instagram 演算法將 476 個帳戶推薦給 Molly,其中 34 個含有悲傷或抑鬱內容。而在 Molly 自殺前半年期間,她曾觸及的 16,300 個帖子中,有 2,100 個與自殺、抑鬱或自殘有關,並分別對它們按讚、收藏及分享約 130次。隨後 Lagone 也承認 Molly 觀看了違反 Instagram 內容政策的帖子,並就此道歉。
資料來源:Campaign Asia
—
unwire.hk Mewe 專頁 : https://mewe.com/p/unwirehk
相關文章:
Instagram 測試建議內容重設功能 解決用戶被推介奇怪內容的問題 Meta 或將開發 AI 搜尋引擎 減少依賴 Google、微軟 Meta 高層親口確認 Instagram 影片畫質與流量掛鈎