生成式人工智慧已被譽為工作場所的寶貴工具。 估計表明,在未來十年內,它可以將生產力增長提高 1.5%,並在同期內將全球國內生產總值提高 7%。 但一項新的研究建議,應謹慎使用它——因為它的輸出對女性有歧視。
研究人員要求兩個大型語言模型 (LLM) 聊天機器人(ChatGPT 和 Alpaca,斯坦福大學開發的模型)為假設的員工撰寫推薦信。 在 arXiv.org 預印本伺服器上分享的一篇論文中,作者分析了 LLM 如何使用非常不同的語言來描述虛構的男性和女性員工。
“我們觀察到推薦信中存在明顯的性別偏見,”論文合著者、加州大學洛杉磯分校的計算機科學家萬亦鑫說。 雖然 ChatGPT 對男性使用了“專家”和“正直”等名詞,但它更可能稱女性為“美女”或“令人愉快的人”。 Alpaca 也存在類似的問題:男性是“傾聽者”和“思考者”,而女性則具有“優雅”和“美麗”。 形容詞也被證明同樣兩極分化。 根據 ChatGPT 的說法,男性是“受人尊敬的”、“聲譽良好的”和“真實的”,而女性則是“令人驚歎的”、“溫暖的”和“情緒化的”。 OpenAI 和斯坦福大學均未立即回覆《大眾科學》的置評請求。
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。 透過購買訂閱,您正在幫助確保未來能夠繼續報道有關塑造我們當今世界的發現和想法的具有影響力的故事。
在專業環境中 artificial intelligence 的使用中遇到的問題與前幾代人工智慧的情況類似。 2018 年,路透社報道,亞馬遜解散了一個自 2014 年以來一直致力於開發人工智慧驅動的簡歷審查工具的團隊。 該公司在意識到文件中任何提及“女性”的內容都會導致人工智慧程式懲罰該申請人後,便放棄了這個專案。 這種歧視的出現是因為該系統是在公司的資料上進行訓練的,而該公司歷來主要僱用男性。
分散式人工智慧研究所(一個分析人工智慧危害的獨立研究小組)的研究主管亞歷克斯·漢娜說,這項新研究的結果“對我來說並不太令人驚訝”。 用於開發 LLM 的訓練資料通常存在偏見,因為它們基於人類過去的文字記錄——其中許多歷史記錄將男性描繪成積極的勞動者,而將女性描繪成被動的客體。 由於 LLM 是在來自網際網路的資料上進行訓練的,而網際網路上男性比女性花費的時間更多,因此情況更加複雜:根據聯合國國際電信聯盟的資料,在全球範圍內,69% 的男性使用網際網路,而女性為 63%。
解決這個問題並非易事。“我認為你不太可能真正消除資料集的偏見,”漢娜說。 “你需要承認這些偏見是什麼,然後採取某種機制來捕捉它。” 漢娜建議,一種選擇是透過稱為強化學習的干預來訓練模型,以弱化有偏見的輸出。 漢娜說,OpenAI 一直在努力控制 ChatGPT 的偏見傾向,但“人們需要知道這些將是長期存在的問題。”
這一切都很重要,因為女性長期以來一直面臨商業和工作場所中固有的偏見。 例如,根據2022 年的一項研究,女性常常不得不在工作場所的溝通中謹小慎微,因為她們的話語比男同事的話語受到更嚴厲的評判。 當然,女性每賺一美元,只能賺83 美分。 萬說,生成式人工智慧平臺正在“傳播這些偏見”。 因此,隨著這項技術在整個工作世界中變得越來越普及,這個問題很可能會變得更加根深蒂固。
英格蘭利物浦約翰摩爾斯大學人力資源講師傑姆·戴爾說:“我歡迎像這樣的研究,它探索這些系統如何運作以及它們的風險和謬誤。” “正是透過這種理解,我們將瞭解問題,然後才能開始解決問題。”
戴爾說,任何考慮在工作場所使用生成式人工智慧聊天機器人的人都應該警惕此類問題。 “如果人們不嚴謹地使用這些系統——就像本研究中的推薦信一樣——我們只是將問題重新發送到世界,並使其永久化,”她說。 “這是我希望科技公司在 LLM 中解決的問題。 他們是否會這樣做將很有趣。”
