編者按(2020年11月9日):最近選舉中透過的投票措施包括加強現有針對波特蘭市警察和公職人員使用面部識別技術的禁令,以及其他技術監管措施。這篇社論提供了更多關於面部識別問題以及美國各地司法管轄區試圖控制其使用的原因的資訊。
從新罕布什爾州到舊金山,各州和地方當局已經開始禁止使用面部識別技術。他們的懷疑是有充分理由的:這些演算法會犯很多錯誤,尤其是在識別女性和有色人種方面。即使這項技術變得更加準確,面部識別也將引發對隱私的侵犯,使匿名變得不可能。不幸的是,地方政府對其使用的禁令幾乎未能阻止從初創企業到大型公司的企業採用。這種不斷擴大的影響範圍正是這項技術需要聯邦法規的原因——而且現在就需要。
自動化面部識別程式確實具有優勢,例如它們能夠將一個人的獨特外貌轉化為生物特徵 ID,從而讓手機使用者只需看一眼即可解鎖裝置,並讓機場安檢快速確認旅客的身份。為了訓練此類系統,研究人員向機器學習演算法輸入各種照片,該演算法學習最能將影像與身份匹配的特徵。他們積累的資料越多,這些程式就越可靠。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續報道關於發現和塑造我們當今世界的想法的具有影響力的故事。
然而,演算法部署得往往為時過早。例如,在倫敦,警方已開始使用人工智慧系統掃描監控錄影,試圖找出路過的通緝犯——儘管一項獨立審查發現,該系統僅在 19% 的情況下準確標記嫌疑人。不準確的系統可能會錯誤地指控無辜公民為不法之徒,將守法公民標記為跟蹤、騷擾或逮捕物件。這成為一個公民權利問題,因為演算法更有可能錯誤識別有色人種。當美國國家標準與技術研究院審查了近 200 個面部識別系統時,發現其中大多數系統錯誤識別黑人和東亞人影像的頻率比白人高 10 到 100 倍。當程式在多張照片中搜索特定面孔時,當被追蹤物件是黑人女性時,它們更有可能選擇不正確的影像。
一些公司正試圖透過向系統中輸入更多非白人和非男性面孔來改進其系統——但他們並非總是以合乎道德的方式進行。例如,谷歌在亞特蘭大的承包商被指控在該公司尋求人臉的過程中剝削無家可歸的黑人,以幾美元的價格購買他們的影像,而初創公司 Clearview AI 違反社交媒體網路的協議,在未經使用者同意的情況下收集使用者影像。這些故事表明,一些公司將解決這個問題視為事後諸葛亮,而不是負責任地解決它。
即使有人釋出了改進後的面部識別軟體,能夠在所有人口群體中實現高精度,這項技術仍然會是一種威脅。由於演算法掃描影片片段的速度比人類快得多,面部識別可以對人群進行持續監控。這種情況已經在中國發生,專制政府正在使用這項技術來壓制其維吾爾族少數民族,並精準定位個人的行動軌跡。這些系統很容易被用來將每個公民都視為罪犯,從而破壞個人隱私,限制自由表達,並造成心理損害。
在美國這樣的民主國家,政府需要保護所有公民免受此類措施的侵害。但現有的技術禁令造成了監管上的不一致:一些地區對面部識別沒有任何限制,另一些地區禁止警察部門應用它,還有一些地區則禁止任何政府機構或僱員使用它。
顯然需要聯邦法規。法規應要求數百個現有的面部識別程式(其中許多由私營公司建立)接受政府工作組的獨立審查。這項技術必須達到高精度的標準,並證明在所有人口群體中都具有公平性,即使它符合這些標準,也應由人類而非演算法來檢查程式的輸出,然後再根據其建議採取行動。面部識別還必須納入更廣泛的隱私法規中,以限制對普通民眾的監控——因為其他基於步態甚至心跳模式來標記人員的識別工具已經在開發中。
美國人一直都極力維護隱私權。必須對威脅到這一點的技術加以控制。
