想象一下,因為偷竊手錶而被鄰居和家人面前戴上手銬。在監獄裡待了幾個小時後,你得知州警察在商店錄影中使用的面部識別軟體將你識別為小偷。但你並沒有偷任何東西;該軟體將警察指向了錯誤的人。
不幸的是,這不是假設。這發生在三年前的羅伯特·威廉姆斯身上,他是一位底特律郊區的黑人父親。可悲的是,威廉姆斯的故事並非個例。在最近一起身份誤認案件中,面部識別技術導致一名佐治亞州黑人因路易斯安那州的錢包盜竊案而被錯誤逮捕。
我們的研究支援了人們對人臉識別技術(FRT)可能加劇警務中種族不平等的擔憂。我們發現,使用自動化面部識別技術的執法機構不成比例地逮捕黑人。我們認為這源於多種因素,包括演算法訓練資料集中缺少黑人面孔,認為這些程式是絕對可靠的,以及警官自身偏見往往會放大這些問題。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您將幫助確保有關塑造我們當今世界的發現和思想的具有影響力的故事的未來。
雖然任何程度的改進都無法消除種族歧視的可能性,但我們理解自動化耗時的人工面部匹配過程的價值。我們也認識到該技術在提高公共安全方面的潛力。然而,考慮到這項技術可能造成的危害,需要實施可執行的保障措施,以防止違憲的過度行為。
FRT 是一種人工智慧驅動的技術,旨在確認影像中人物的身份。執法部門使用的演算法通常由亞馬遜、Clearview AI 和微軟等公司開發,這些公司為不同的環境構建系統。儘管深度學習技術取得了巨大的進步,但聯邦測試表明,大多數面部識別演算法在識別白人男性以外的人方面表現不佳。
民權倡導者警告說,這項技術難以區分較深膚色的人臉,這可能會導致更多的種族歧視和更多的錯誤逮捕。此外,不準確的識別會增加漏捕的可能性。
儘管如此,一些政府領導人,包括新奧爾良市長 LaToya Cantrell,都在吹捧這項技術幫助破案的能力。面對全國各地警察部門日益嚴重的 staffing 短缺問題,一些人擁護 FRT 作為急需的警力覆蓋倍增器,幫助機構用更少的警員做更多的事情。這種觀點可能解釋了為什麼超過四分之一的州和地方警察部門以及幾乎一半的聯邦執法機構經常訪問面部識別系統,儘管它們存在缺陷。
這種廣泛採用對我們免受非法搜查和扣押的憲法權利構成了嚴重威脅。
認識到對我們公民自由的威脅,舊金山和波士頓等城市禁止或限制政府使用這項技術。在聯邦層面,拜登政府在 2022 年釋出了“人工智慧權利法案藍圖”。雖然旨在將保護我們公民權利的做法納入人工智慧技術的設計和使用中,但該藍圖的原則不具有約束力。此外,今年早些時候,國會民主黨人重新提出了《面部識別和生物識別技術暫停法案》。該法案將暫停執法部門使用 FRT,直到政策制定者能夠制定法規和標準,以平衡憲法擔憂和公共安全。
擬議的人工智慧權利法案和暫停法案是保護公民免受人工智慧和 FRT 侵害的必要第一步。然而,這兩項努力都不夠完善。該藍圖不涵蓋執法部門對人工智慧的使用,暫停法案僅限制聯邦機構而非州和地方政府使用自動化面部識別技術。
然而,隨著關於面部識別技術在公共安全中的作用的辯論愈演愈烈,我們的研究和其他研究表明,即使軟體沒有錯誤,除非對非聯邦用途也採取保障措施,否則這項技術也可能導致不公平的執法行為。
首先,許多黑人社群警力資源的集中已經導致黑人居民與警察之間不成比例的接觸。在這種背景下,由 FRT 輔助警察服務的社群更容易受到執法差異的影響,因為演算法輔助決策的可靠性受到警務工作的需求和時間限制的威脅,再加上對人工智慧近乎盲目的信任,最大限度地減少了使用者在決策中的自由裁量權。
警察通常以三種方式使用這項技術:現場查詢以識別被攔截或被捕人員,搜尋影片錄影或即時掃描經過監控攝像頭的人員。警察上傳影像,在幾秒鐘內,軟體將影像與大量照片進行比較,以生成潛在嫌疑人的陣容。
執法決定最終由警官做出。然而,人們常常認為人工智慧是絕對可靠的,並且不會質疑結果。最重要的是,使用自動化工具比用肉眼進行比較容易得多。
人工智慧驅動的執法輔助工具也使警察與公民之間產生心理距離。這種從決策過程中脫離出來的情況使警官能夠將自己與自己的行為分開。使用者有時也會有選擇性地遵循計算機生成的指導,偏愛與刻板印象相符的建議,包括那些關於黑人犯罪的刻板印象。
沒有確鑿的證據表明 FRT 可以改善犯罪控制。儘管如此,官員們似乎願意容忍這些種族偏見,因為城市都在努力遏制犯罪。 這使人們容易受到權利侵犯。
盲目接受這項技術的時代已經過去。軟體公司和執法部門必須立即採取措施,減少這項技術的危害。
對於公司而言,建立可靠的面部識別軟體始於設計師之間均衡的代表性。在美國,大多數軟體開發人員是白人男性。研究表明,該軟體在識別程式設計師種族成員方面要好得多。專家將這些發現主要歸因於工程師無意識地將“本族偏見”傳遞到演算法中。
本族偏見之所以會悄然滲入,是因為設計師無意識地專注於他們熟悉的面部特徵。由此產生的演算法主要在其種族的人身上進行測試。因此,許多美國製造的演算法透過檢視更多的白人面孔來“學習”,這無助於它們識別其他種族的人。
使用多樣化的訓練集可以幫助減少 FRT 效能中的偏差。演算法透過使用一組照片進行訓練來學習比較影像。訓練影像中白人男性的不成比例代表性會產生有偏差的演算法,因為黑人在警方常用的罪犯照片資料庫和其他影像儲存庫中被過度代表。因此,人工智慧更可能將黑人面孔標記為犯罪分子,從而導致無辜黑人成為目標並被逮捕。
我們認為,製造這些產品的公司需要考慮員工和影像的多樣性。然而,這並不能消除執法部門的責任。如果我們想防止這項技術加劇種族差距並導致權利侵犯,警方必須嚴格審查其方法。
對於警察領導來說,必須對匹配應用統一的相似度評分最低標準。在面部識別軟體生成潛在嫌疑人陣容後,它會根據演算法認為影像的相似程度對候選人進行排名。目前,各部門通常自行決定其相似度評分標準,一些專家認為這會增加錯誤逮捕和漏捕的可能性。
執法部門採用 FRT 是不可避免的,我們看到了它的價值。但是,如果執法結果中已經存在種族差異,那麼在沒有充分的監管和透明度的情況下,這項技術可能會加劇交通攔截和逮捕等事件中出現的不平等現象。
從根本上說,警官需要接受更多關於 FRT 的缺陷、人為偏見和歷史歧視的培訓。除了指導使用這項技術的警官外,警察和檢察官在尋求逮捕令時也應披露他們使用了自動化面部識別技術。
儘管 FRT 並非萬無一失,但遵循這些指導方針將有助於防止導致不必要逮捕的使用。
這是一篇觀點和分析文章,作者或作者表達的觀點不一定代表《大眾科學》的觀點。
