德國 Würzburg-Schweinfurt 科技大學 (THWS) 最新研究發現,包括 ChatGPT 在內的大型語言模型存在明顯性別偏見,在相同資歷條件下,一致建議女性要求較男性低的薪酬。研究顯示最大差距可達每年 12 萬美元,反映 AI 系統複製並強化系統性偏見的嚴重問題。
該研究由人工智能及機械人學教授 Ivan Yamshchikov 共同撰寫,他亦創辦了專為受規管行業構建道德訓練語言模型的法德初創企業 Pleias。研究團隊測試了 5 個熱門大型語言模型,包括 ChatGPT,透過僅在性別上有差異但教育、經驗和職位相同的用戶資料進行測試。
研究人員要求各模型為即將進行的薪酬談判建議目標薪酬。結果顯示,OpenAI 的 ChatGPT O3 模型為女性求職者提供的薪酬建議明顯低於同等條件的男性求職者。Yamshchikov 指出:「提示詞的差異只有 2 個字母,但『建議』的差異卻是每年 12 萬美元。」
薪酬差距在法律和醫學領域最為明顯,其次是工商管理和工程學。只有在社會科學領域,模型為男女提供近乎相同的建議。研究人員亦測試模型如何就職業選擇、目標設定甚至行為建議提供意見,發現儘管資歷和提示詞相同,大型語言模型在各方面都根據用戶性別作出不同回應。
關鍵問題是這些模型並未聲明其偏見存在。研究結果顯示 AI 系統在看似客觀的外表下隱藏的系統性歧視,可能對使用者的職業發展和薪酬談判造成實質影響。這並非 AI 首次被發現反映並強化系統性偏見。2018 年,Amazon 在發現內部招聘工具系統性地降低女性候選人評分後,決定廢棄該系統。去年,一個用於診斷女性健康狀況的臨床機械學習模型被發現對女性和黑人患者診斷不足,原因是其訓練數據集偏向白人男性。
THWS 研究認為,僅靠技術修正無法解決問題。他們表示需要明確的道德標準、獨立審查程序,以及在模型開發和部署過程中提高透明度。隨著生成式 AI 成為從心理健康建議到職業規劃等各方面的首選資源,風險只會不斷增加。
來源:TNW
分享到 :
最新影片