人工智慧程式,就像開發和訓練它們的人類一樣,遠非完美。無論是分析醫學影像的機器學習軟體,還是像ChatGPT這樣進行看似自然的對話的生成式聊天機器人,基於演算法的技術都可能出錯,甚至“產生幻覺”,或提供不準確的資訊。更陰險的是,人工智慧還可能顯示出偏見,這些偏見是透過這些程式訓練所用的海量資料引入的——而且許多使用者無法察覺。現在,新的研究表明,人類使用者可能會無意識地吸收這些自動化偏見。
過去的 исследования показали, что предвзятый ИИ может нанести вред людям, уже находящимся в маргинализированных группах. Некоторые воздействия незначительны, например, распознавание речи программное обеспечение не в состоянии понимать неамериканские акценты, что может доставить неудобства людям, использующим смартфоны или голосовые домашние помощники. Есть и более пугающие примеры, в том числе алгоритмы здравоохранения которые допускают ошибки, потому что они обучаются только на подмножестве людей (например, на белых людях, людях определенного возраста или даже людях с определенной стадией заболевания), а также расово предвзятые полицейское программное обеспечение для распознавания лиц, которое может увеличить число неправомерных арестов чернокожих.
然而,解決問題可能不像追溯調整演算法那麼簡單。一旦人工智慧模型問世,用其偏見影響人們,從某種意義上說,損害已經造成。這是因為與這些自動化系統互動的人可能會無意識地將他們遇到的偏見融入到他們未來的決策中,正如最近發表在《科學報告》上的心理學研究所表明的那樣。至關重要的是,該研究表明,人工智慧模型引入使用者的偏見可以持續存在於人的行為中——即使在他們停止使用人工智慧程式之後。
關於支援科學新聞報道
如果您喜歡這篇文章,請考慮支援我們屢獲殊榮的新聞報道,方式是 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們今天世界的發現和想法的具有影響力的故事的未來。
“我們已經知道人工智慧繼承了人類的偏見,”這項新研究的資深研究員、西班牙德烏斯托大學的實驗心理學家海倫娜·馬圖特說。例如,當科技出版物Rest of World最近分析了流行的AI影像生成器時,它發現這些程式傾向於種族和民族刻板印象。但馬圖特試圖從另一個方向理解人工智慧與人類的互動。“我們在實驗室中提出的問題是人工智慧如何影響人類的決策,”她說。
在三個實驗過程中,每個實驗都有約200名獨特的參與者,馬圖特和她的合作研究員、德烏斯托大學的露西亞·維森特模擬了一個簡化的醫療診斷任務:他們要求非專業參與者將影像分類為指示存在或不存在虛構疾病。這些影像由兩種不同顏色的點組成,參與者被告知這些點陣列代表組織樣本。根據任務引數,一種顏色的點越多意味著疾病呈陽性結果,而另一種顏色的點越多則意味著陰性結果。
在不同的實驗和試驗中,馬圖特和維森特向部分參與者提供了有目的性的偏見建議,如果遵循這些建議,將導致他們錯誤地對影像進行分類。科學家們在一封電子郵件中解釋說,他們將這些建議描述為源自“基於人工智慧 (AI) 演算法的診斷輔助系統”。對照組收到一系列未標記的點影像進行評估。相比之下,實驗組收到一系列標有來自虛假人工智慧的“陽性”或“陰性”評估的點影像。在大多數情況下,標籤是正確的,但在每種顏色的點數相似的情況下,研究人員引入了帶有不正確答案的有意偏差。在一個實驗組中,AI 標籤傾向於提供假陰性。在第二個實驗組中,偏差被反轉為假陽性。
研究人員發現,接受虛假人工智慧建議的參與者繼續將相同的偏見納入他們未來的決策中,即使在不再提供指導之後也是如此。例如,如果參與者與假陽性建議互動,當給予新的影像進行評估時,他們傾向於繼續犯假陽性錯誤。儘管對照組證明在沒有人工智慧指導的情況下,這項任務很容易正確完成——並且儘管一項實驗中 80% 的參與者注意到虛構的“人工智慧”犯了錯誤,但這一觀察結果仍然成立。
哈佛醫學院皮膚病學教授、《npj Digital Medicine》主編約瑟夫·克維達爾說,一個重要的警告是,該研究沒有涉及受過訓練的醫療專業人員或評估任何批准的診斷軟體。因此,克維達爾指出,該研究對醫生和他們使用的實際人工智慧工具的意義非常有限。美國放射學院資料科學研究所首席科學官基思·德雷爾也表示同意,並補充說“前提與醫學影像不符”。
儘管不是真正的醫學研究,但該研究為人們如何從無意中融入許多機器學習演算法的偏見模式中學習提供了見解——並且表明人工智慧可能會對人類行為產生不利影響。克維達爾說,忽略研究中虛假人工智慧的診斷方面,“實驗的設計從心理學的角度來看幾乎是完美的”。德雷爾和克維達爾都沒有參與這項研究,他們都認為這項工作很有趣,儘管並不令人驚訝。
範德堡大學心理學和人類發展學副教授麗莎·法齊奧說,人類可能會透過複製超出他們與機器學習模型互動範圍之外的行為來繼續執行人工智慧的偏見,這一發現具有“真正的新穎性”,她沒有參與最近的研究。她認為,即使是與有問題的 AI 模型或 AI 生成輸出的限時互動也可能產生持久的影響。
例如,考慮一下加利福尼亞州聖克魯斯市在 2020 年禁止的預測性警務軟體。加州大學伯克利分校心理學助理教授塞萊斯特·基德說,儘管該市警察局不再使用演算法工具來確定警力部署地點,但在使用了多年之後,部門官員可能已經內化了該軟體可能存在的偏見,她也沒有參與這項新研究。
人們從人類資訊來源中學習偏見是廣為人知的。然而,基德說,當不準確的內容或指導來自人工智慧時,後果可能更加嚴重。她之前研究並撰寫了關於人工智慧如何改變人類信仰的獨特方式。首先,基德指出,人工智慧模型很容易變得比人類更加偏頗。她引用了彭博社最近釋出的一項評估,該評估確定生成式人工智慧可能比人類表現出更強的種族和性別偏見。
人類也可能將更多的客觀性歸因於機器學習工具,而不是其他來源。“您受資訊來源影響的程度與您評估其智慧程度有關,”基德說。她解釋說,人們可能會賦予人工智慧更多的權威,部分原因是演算法通常被宣傳為利用了所有人類知識的總和。這項新研究似乎在次要發現中支援了這一觀點:馬圖特和維森特指出,自我報告對自動化具有較高信任度的參與者傾向於犯更多模仿虛假人工智慧偏見的錯誤。
此外,與人類不同,演算法以看似“自信”的方式交付所有輸出——無論是否正確,基德說。在直接的人類交流中,不確定性的細微線索對於我們如何理解和理解資訊的背景非常重要。長時間的停頓、“嗯”、手勢或眼神的轉移可能表明一個人對自己所說的話不太確定。機器不提供此類指標。“這是一個巨大的問題,”基德說。她指出,一些人工智慧開發人員正在嘗試透過新增不確定性訊號來追溯解決這個問題,但很難為真實事物設計替代品。
基德和馬圖特都聲稱,人工智慧開發人員在如何訓練和構建其工具方面缺乏透明度,這使得消除人工智慧偏見變得更加困難。德雷爾對此表示贊同,並指出即使在獲得批准的醫療人工智慧工具中,透明度也是一個問題。儘管食品和藥物管理局監管診斷機器學習程式,但沒有統一的聯邦資料披露要求。美國放射學院多年來一直倡導提高透明度,並表示仍需開展更多工作。“我們需要醫生在高層次上了解這些工具的工作原理、它們的開發方式、訓練資料的特徵、它們的效能、它們應該如何使用、何時不應該使用以及工具的侷限性,”放射學會網站上釋出的 2021 年文章寫道。
而且不僅僅是醫生。馬圖特說,為了最大限度地減少人工智慧偏見的影響,每個人“都需要更多地瞭解這些人工智慧系統是如何運作的”。否則,我們就有可能讓演算法“黑匣子”將我們推進到一個自我挫敗的迴圈中,在這個迴圈中,人工智慧導致更多有偏見的人類,而人類反過來又創造出越來越有偏見的演算法。“我非常擔心,”馬圖特補充說,“我們正在開始一個迴圈,這將很難擺脫。”
