如果人工智慧接管我們的生活,那可能不會是人類與機器人大軍作戰,後者無情地運用類似斯波克的邏輯來奴役我們。相反,已經讓AI程式為你推薦電影或在照片中識別你朋友面部的機器學習演算法,很可能也會在某一天拒絕你的貸款、引導警察到你的社群或告訴你的醫生你需要節食。由於人類創造了這些演算法,它們同樣容易受到偏見的影響,而這些偏見可能導致糟糕的決策——以及更糟的結果。
這些偏見引發了一些關於我們日益依賴人工智慧技術的直接擔憂,因為任何由人類設計為絕對“中立”的AI系統,仍然可能強化人類的偏見思維,而不是看穿它。例如,執法官員已經因使用據稱將黑人被告標記為更有可能在未來犯罪的計算機演算法而受到批評,即使該程式並非旨在明確考慮種族。
主要問題是雙重的:首先,用於校準機器學習演算法的資料有時不足,其次,演算法本身可能設計不佳。機器學習是軟體開發人員訓練AI演算法的過程,使用與手頭任務相關的大量資料。最終,演算法會在最初提供的資料中發現模式,使其能夠在新資料中識別類似的模式。但這並非總是按計劃進行,結果可能是可怕的。例如,在2015年6月,谷歌的照片分類系統將兩名非裔美國人識別為“大猩猩”。該公司迅速修復了這個問題,但微軟AI研究員凱特·克勞福德在《紐約時報》評論版中指出,這個錯誤反映了AI中更大的“白人男性問題”。也就是說,用於訓練軟體的資料過於依賴白人的照片,從而削弱了其準確識別具有不同特徵的人的影像的能力。
支援科學新聞報道
如果您喜歡這篇文章,請考慮支援我們屢獲殊榮的新聞報道,方式是 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。
最近湧入Facebook使用者新聞提要的虛假新聞也突顯了AI偏見問題。Facebook的熱門新聞演算法優先考慮基於互動的故事——使用者點選或分享的頻率。根本沒有考慮真實性。在11月初,幾家新聞媒體透露,一群馬其頓青少年欺騙了Facebook的新聞提要演算法,使其推廣明顯虛假的故事,這些故事在美國大選期間吸引了右翼選民。Facebook表示,此後已修改該演算法,並宣佈計劃讓Snopes、Factcheck.org、ABC News和PolitiFact幫助篩選出明顯的虛假文章。
“這有點像‘俄羅斯坦克問題’,”馬里蘭大學計算機科學副教授哈爾·道梅三世說。這個傳說——雖然是杜撰的但具有啟發意義,並且經常被計算機科學教師講述——可以追溯到20世紀80年代機器學習的早期。故事說,美國軍方試圖訓練一臺計算機來區分照片中的俄羅斯坦克和美國坦克。“他們獲得了超高的分類準確率——但所有俄羅斯坦克的照片都是模糊的,而美國坦克是高畫質的,”道梅解釋說。該演算法並沒有識別坦克,而是學會了區分顆粒感照片和高質量照片。
儘管存在這些已知的侷限性,但一組研究人員最近釋出了一項研究,聲稱一種演算法可以透過評估面部特徵來推斷某人是否是罪犯。中國上海交通大學的研究人員吳曉林和張希在一個包含1,856張面部照片的資料集上訓練了一個機器學習演算法——730名罪犯和1,126名非罪犯。在查看了90%的照片後,該AI能夠正確識別剩餘10%的照片中哪些是罪犯。
這項演算法將特定的面部特徵與犯罪行為聯絡起來,根據該研究。例如,罪犯更可能在眼角、嘴唇曲率和鼻尖的位置之間具有某些空間關係,吳說——儘管他指出,擁有任何一種這些關係並不一定表明一個人更有可能成為罪犯。吳還發現,罪犯的面孔彼此之間差異更大,而非罪犯的面孔往往具有相似的特徵。
吳繼續使用一組它以前從未見過的不同照片測試該演算法,並發現它通常可以正確地識別出罪犯。研究人員試圖透過僅使用沒有面部毛髮或疤痕的青年或中年中國男性的面孔來訓練和測試他們的演算法,從而避免偏見。
“我開始是為了證明面相學是錯誤的,”吳說,他指的是根據面部特徵評估性格的古老偽科學。“我們對結果感到驚訝。”儘管這項研究似乎驗證了面相學的某些方面,但吳承認,使用這種技術在警察列隊中挑出某人是“瘋狂的”,並表示沒有任何執法應用計劃。
其他科學家表示,吳和張的研究結果可能只是在強化現有的偏見。谷歌研究機器學習的首席科學家布萊斯·阿吉拉·伊·阿卡斯指出,受試者的犯罪行為是由人類執行的當地司法系統決定的,而人類會做出(也許是潛意識的)有偏見的決定。該論文的核心問題在於,它依賴於這個系統“作為標記罪犯的真實依據,然後得出結論,認為由此產生的[機器學習]不受人類判斷的偏見影響”,阿吉拉·伊·阿卡斯補充道。
吳和他的同事們“直接跳到結論,認為他們發現了自然界中潛在的模式——面部結構預測犯罪行為。這是一個非常魯莽的結論,”華盛頓學院數學助理教授凱爾·威爾遜說,他研究計算機視覺。威爾遜還表示,這種演算法可能只是反映了特定司法系統中人類的偏見,並且可能在任何其他國家也做同樣的事情。“相同的資料和工具可以用來更好地理解[人類]在刑事司法系統中基於外貌的偏見,”威爾遜說。“相反,他們教會計算機複製那些相同的人類偏見。”
還有其他人表示,可以透過考慮計算機學習的模式中的錯誤來改進這項技術,以試圖排除人類的偏見。瑞士AI實驗室達勒莫勒人工智慧研究所科學主任於爾根·施密德胡伯說,AI系統在學習時會犯錯誤——事實上它必須犯錯,這就是為什麼它被稱為“學習”。他指出,計算機只能在給定資料允許的範圍內學習。“你無法消除所有這些偏見來源,就像你無法消除人類的這些來源一樣,”他說。但他補充說,有可能承認這一點,然後確保使用好的資料並良好地設計任務;提出正確的問題至關重要。或者,記住一句老程式設計師的諺語:“垃圾進,垃圾出。”
