FB 建議貼文

選取貼文複製成功(包含文章連結)!

慈善團體也用 AI 生成「貧困兒童圖像」,專家憂助長刻板印象與偏見

慈善團體也用 AI 生成「貧困兒童圖像」,專家憂助長刻板印象與偏見

根據《衛報》報導,近期有越來越多國際慈善組織與全球公共衛生機構,開始使用 AI 工具生成極端貧困或性暴力倖存者的圖像。這類合成圖片正大量出現在知名圖庫平台,引發國際間對 AI 倫理的強烈關注與爭議。

來自推廣道德影像使用的 NGO 組織 Fairpicture 成員 Noah Arnold 表示:「目前幾乎隨處可見 AI 生成的人道救援圖像,不少慈善機構已實際投入使用,或至少正在評估導入。」

成本低、無需授權,NGO 選擇「虛擬貧困」

Arnold 指出,這波趨勢部分原因來自於美國政府對 NGO 補助預算的刪減。許多機構轉向 AI 生成圖像以節省拍攝與授權成本,並避開肖像使用的法律與倫理爭議。

然而這樣的選擇,正逐漸將「貧困」與「災難」以誇張甚至扭曲的方式視覺化。

來自比利時安特衛普熱帶醫學研究所的 Arsenii Alenichev 就揭露,他收集了上百張 AI 合成的「援助圖像」,畫面中不乏:

  • 手持空盤的兒童

  • 泥濘水窪中蜷縮的孩子

  • 臉上掛著淚痕、身穿婚紗的非洲女孩

這些內容不僅明顯強化了對非洲、印度等地的負面刻板印象,更出現種族化的傾向。

圖庫平台成溫床,圖像恐成偏見訓練材料

這類 AI 生成圖像已被廣泛上傳至 Adobe Stock、Freepik 等主流圖庫網站,標題包括:

  • 「垃圾河中游泳的亞洲兒童」

  • 「白人志工為非洲村落孩童看診」

  • 「難民營裡的真實童年」等

Alenichev 表示:「這些圖片絕不該被允許公開使用,它們無助於改善現況,反而會加深全球觀眾對特定地區的誤解與污名。」

報導也指出,這些圖像一旦被收錄進資料庫,可能會被用於訓練下一代 AI 模型,進一步複製與放大現有偏見。

專家籲審慎使用 AI「道德影像」

生成式 AI 已多次被證實會延續甚至放大社會偏見。如今在公共衛生與慈善募資領域出現大量 AI 合成畫面,讓專家擔憂募資訴求逐漸脫離現實,也讓真正處於困境中的人被「虛擬替代」。

Fairpicture、Alenichev 等單位皆呼籲相關單位應制定清晰準則,禁止以 AI 方式過度簡化或娛樂化他人痛苦,避免科技落入錯誤應用的灰色地帶。

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則