人工智慧致人死亡,誰來承擔責任?

我們需要在促進創新的同時,改變規則和制度,以保護人們免受 faulty AI 的傷害

Illustration of the inside of a car.

Sergii Iaremenko/Science Photo Library/Getty Images

當人工智慧傷害到某人時,誰來負責?加利福尼亞州的一個陪審團可能很快就必須做出決定。2019年12月,一名駕駛特斯拉汽車的人,在使用人工智慧導航系統時,在一次事故中導致兩人喪生。該司機將面臨最高12年的監禁。數個聯邦機構正在調查特斯拉的撞車事故,美國司法部已對特斯拉如何營銷其自動駕駛系統展開刑事調查。加州機動車輛管理局也在審查其人工智慧引導駕駛功能的使用情況。

我們目前的責任體系——用於確定責任和傷害賠償——尚未為人工智慧做好準備。責任規則是為人類造成大多數傷害的時代設計的。但是隨著人工智慧的出現,即使沒有任何直接的人工輸入,也可能發生錯誤。責任體系需要做出相應的調整。糟糕的責任政策不僅會扼殺人工智慧的創新,還會損害患者和消費者的利益。

現在是時候考慮責任問題了——因為人工智慧變得無處不在,但仍然監管不足。基於人工智慧的系統已經造成了傷害。2019年,一個人工智慧演算法錯誤地識別了一起嚴重襲擊案的嫌疑人,導致了一起錯誤的逮捕。2020年,在新冠疫情高峰期,一個基於人工智慧的心理健康聊天機器人鼓勵一個模擬的自殺病人結束自己的生命。


關於支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您將幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事能夠擁有未來。


制定正確的責任框架對於釋放人工智慧的潛力至關重要。不確定的規則和昂貴的訴訟前景將阻礙人工智慧在從醫療保健到自動駕駛汽車等行業的投資、開發和應用。

目前,責任調查通常從演算法的使用者開始——並止於此。誠然,如果有人濫用人工智慧系統或忽視其警告,那麼這個人應該承擔責任。但是,人工智慧錯誤通常不是使用者的過錯。誰能責怪急診室醫生,因為人工智慧演算法遺漏了視乳頭水腫——視網膜一部分的腫脹?人工智慧未能檢測到這種情況可能會延誤治療,並可能導致患者失明。然而,在沒有眼科醫生檢查的情況下,視乳頭水腫很難診斷。

人工智慧不斷地進行自我學習,這意味著它獲取資訊並在其中尋找模式。它是一個“黑匣子”,這使得很難知道哪些變數對其輸出有貢獻。這進一步使責任問題複雜化。對於一個由無法解釋的人工智慧造成的錯誤,你能責怪醫生多少?僅僅將責任轉移給人工智慧工程師並不能解決問題。當然,工程師們建立了有問題的演算法。但是,每次特斯拉Autopilot事故都可以透過在產品釋出前進行更多測試來避免嗎?

關鍵是確保所有利益相關者——使用者、開發者以及鏈條上的所有其他人——承擔足夠的責任,以確保人工智慧的安全性和有效性,但又不會多到讓他們放棄人工智慧。為了在保護人們免受 faulty AI 傷害的同時仍然促進創新,我們提出了三種改進傳統責任框架的方法。

首先,保險公司必須透過在使用前測試和驗證新的人工智慧演算法,來保護投保人免受因人工智慧傷害而被起訴的費用。汽車保險公司多年來也一直在對汽車進行比較和測試。獨立的安全性系統可以為人工智慧利益相關者提供一個可預測的責任系統,該系統可以適應新技術和方法。

其次,一些人工智慧錯誤應該在具有此類案件專業知識的法院進行訴訟。這些法庭可以專門處理特定的技術或問題,例如處理兩個人​​工智慧系統的互動(例如,兩輛自動駕駛汽車彼此相撞)。這種法院並不新鮮:在美國,這些法院已經裁決疫苗傷害索賠數十年。

第三,來自聯邦機構(如美國食品和藥物管理局或國家公路交通安全管理局)的監管標準可以抵消開發者和使用者的過度責任。例如,聯邦法規和立法已經取代了某些形式的醫療器械責任。監管機構應該積極主動地關注人工智慧開發的標準流程。透過這樣做,他們可以將某些人工智慧視為風險過高,不宜在未經測試、重新測試或驗證的情況下引入市場。這將使各機構能夠保持靈活,並防止與人工智慧相關的傷害,而不會使人工智慧開發者承擔過多的責任。

從金融到網路安全等行業正處於人工智慧革命的風口浪尖,這可能會使全球數十億人受益。但是,這些好處不應被開發不良的演算法所破壞:21世紀的人工智慧需要21世紀的責任體系。

© .