當您閱讀“人”、“人們”或“個體”等詞語時,您會想到什麼? 很可能您腦海中的形象是男性,而不是女性。 如果是這樣,您並不孤單。 一項對超過五千億詞彙的大規模語言分析得出結論,我們給那些根據定義應該是性別中立的詞語賦予了性別。
紐約大學的心理學家分析了來自近三十億個網頁的文字,並比較了表示人的詞語(“個體”、“人們”等等)與表示男性的詞語(“男性”、“他”)或女性的詞語(“女性”、“她”)相關聯的頻率。 他們發現,與女性相關詞語相比,男性相關詞語與“人”的重疊頻率更高。 根據這項發表在《科學進展》雜誌4月1日的研究,從這個角度來看,文化概念中的人更多時候是男性而不是女性。
為了進行這項研究,研究人員轉向了一個龐大的開源網頁資料集,稱為 Common Crawl,它從公司白皮書到網際網路論壇等各種來源提取文字。 為了分析文字——總共超過 6300 億個單詞——研究人員使用了詞嵌入,這是一種計算語言學技術,透過查詢兩個詞語一起出現的頻率來評估它們之間的相似程度。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。 透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。
“您可以採用像‘人’這樣的詞語,並透過檢視我們經常在‘人’這個詞語周圍使用的其他詞語來理解我們所說的‘人’是什麼意思,我們如何表示‘人’這個詞語,”紐約大學的博士後研究員艾普瑞爾·貝利解釋說,她進行了這項研究。“我們發現,表示人的詞語和表示男性的詞語之間的重疊比表示人的詞語和表示女性的詞語之間的重疊更多……這表明在人的概念中存在這種男性偏見。”
科學家們之前已經研究過語言中的性別偏見,例如女性與家庭生活聯絡更緊密,而男性與工作聯絡更緊密的觀點。“但這是第一個以這種定量計算社會科學的方式研究這種非常普遍的性別刻板印象——即男性在某種程度上是預設的人類——的研究,”卡內基梅隆大學心理學系的研究科學家莫莉·劉易斯說,她沒有參與這項研究。
研究人員還研究了常用來描述人的動詞和形容詞——例如,“外向型”——並發現它們與表示男性的詞語的聯絡比與表示女性的詞語的聯絡更緊密。 當團隊測試刻板印象的性別詞語時,例如男性個體的“勇敢”和“殺戮”,或女性個體的“富有同情心”和“咯咯地笑”,男性與所有這些詞語的關聯程度相同,而女性則與那些被認為是刻板印象的女性詞語的關聯最為密切。
貝利說,這一發現表明人們“傾向於更多地以性別刻板印象來思考女性,並且傾向於以通用術語來思考男性”。 “他們認為男性只是可以做各種不同事情的人,而認為女性真的只是可以做性別刻板印象的事情的女性。”
對這種偏見的一種可能解釋是許多假定中性的英語單詞的性別化性質,例如“chairman”、“fireman”和“human”。 潛在地消除我們有偏見思維方式的一種方法是用真正性別中立的替代詞語替換這些詞語,例如“chairperson”或“firefighter”。 值得注意的是,該研究主要使用英語單詞進行,因此尚不清楚研究結果是否適用於其他語言和文化。 然而,在其他語言中也發現了各種性別偏見。
雖然認為“人”等於“男人”的偏見在某種程度上是概念性的,但其後果卻是非常真實的,因為這種趨勢塑造了我們周圍技術的設計。 女性在車禍中更容易受到重傷或死亡,因為當汽車製造商設計安全功能時,他們設想的預設使用者(以及他們測試的碰撞假人)是男性個體,其身體比普通女性更重,腿更長。
另一個重要的含義與機器學習有關。 詞嵌入,即新研究中使用的相同語言工具,被用來訓練人工智慧程式。 這意味著源文字中存在的任何偏見都將被這種人工智慧演算法所拾取。 亞馬遜面臨著這個問題,此前曝光該公司希望用於篩選求職者的演算法會自動將女性排除在技術職位之外——這重要地提醒我們,人工智慧的智慧程度,或者說偏見程度,僅僅與訓練它的人類相同。
