眼見未為實 網上「貧困兒童」慘況相或為 AI 生成 慈善機構惹道德爭議

Published by
arthur

愈來愈多國際慈善組織與公共衛生機構,正使用 AI 工具生成極端貧困或性暴力倖存者的圖像。這些合成相片大量出現於 Adobe Stock 及 Freepik 等知名圖庫平台,令 AI 倫理問題備受國際關注。

資金壓力與成本考量成轉用 AI 主因

推廣道德影像使用的非政府組織 Fairpicture 成員 Noah Arnold 表示,這股趨勢的成因之一,是美國政府大幅削減對非政府組織的預算。美國前總統特朗普曾於 2025 年 7 月簽署《2025 年度撤銷法案》,從美國國際開發署(USAID)及其他對外援助計劃中撤回約 80 億美元(約港幣 624 億元)資金,並取消約 83% 的 USAID 合約。在資金壓力下,許多機構轉向使用 AI 生成圖像,以節省拍攝與授權成本,同時亦可避開肖像權的法律及倫理爭議。

複製貧困視覺模式 強化種族刻板印象

比利時安特衛普熱帶醫學研究所研究員 Arsenii Alenichev 在醫學期刊《The Lancet Global Health》發表評論文章,揭露他收集了超過 100 張由 AI 合成的「援助圖像」。這些圖像包括手持空盤的兒童、在泥濘水窪中蜷縮的孩子,以及臉上掛著淚痕、身穿婚紗的非洲女孩等畫面。Alenichev 指出,這些內容除了明顯強化對非洲、印度等地的負面刻板印象,也出現種族化傾向,複製了所謂「貧困的視覺語法」。標題為「垃圾河中游泳的亞洲兒童」、「白人志工為非洲村落孩童看診」、「難民營裡的真實童年」等 AI 生成圖像,已廣泛上傳至主流圖庫網站。聯合國及慈善組織 Plan International 亦曾於實際宣傳活動中使用 AI 生成的影片或圖像,其中聯合國的影片在《衛報》查詢後已被撤下。

圖庫平台持續流入 恐成訓練數據來源

Freepik 行政總裁 Joaquín Abela 回應時指出,是消費者推動 AI 圖像的需求,平台無法為此負責。然而專家擔憂,這些圖像一旦被收錄進資料庫,便可能會用於訓練下一代 AI 模型,進一步複製與放大現有偏見,令募資訴求逐漸脫離現實。

呼籲制定清晰準則 避免科技誤用

Alenichev 表示,這些相片不應獲准公開使用,否則只會加深全球觀眾對特定地區的誤解與污名。多項研究證實,生成式 AI 會延續甚至放大社會偏見,Fairpicture 及相關單位呼籲制定清晰準則,禁止以 AI 過度簡化或娛樂化他人的痛苦,避免科技落入被誤用的灰色地帶。

The Guardian

Published by
arthur