當人工智慧傷害他人時,誰來負責?
加利福尼亞州的一個陪審團可能很快就要做出決定。2019年12月,一名駕駛特斯拉汽車並使用人工智慧駕駛系統的人在加迪納發生的一起事故中導致兩人死亡。 這名特斯拉司機面臨數年監禁。 鑑於此事件和其他事件,國家公路交通安全管理局 (NHTSA) 和國家運輸安全委員會都在調查特斯拉的撞車事故,NHTSA 最近擴大了其調查範圍,以探索駕駛員如何與特斯拉系統互動。 在州層面,加利福尼亞州正在考慮限制特斯拉自動駕駛功能的使用。
我們當前的責任體系——我們確定責任和人身傷害賠償的體系——完全沒有為人工智慧做好準備。責任規則是為人類造成大多數錯誤或傷害的時代設計的。 因此,大多數責任框架將懲罰施加於終端使用者醫生、司機或其他造成傷害的人類身上。 但對於人工智慧而言,即使沒有任何人為輸入,也可能發生錯誤。 責任體系需要做出相應調整。 不良的責任政策將損害患者、消費者和人工智慧開發人員。
關於支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。 透過購買訂閱,您正在幫助確保有關當今塑造我們世界的發現和想法的具有影響力的故事的未來。
現在是考慮責任問題的時候了——正值人工智慧變得無處不在但仍未受到充分監管之際。 基於人工智慧的系統已經造成了傷害。 2018年,一輛自動駕駛優步汽車撞死了一名行人。 儘管駕駛員失誤是問題所在,但人工智慧未能檢測到行人。 最近,一個基於人工智慧的心理健康聊天機器人鼓勵一位模擬的自殺患者自殺。 人工智慧演算法歧視了女性求職者的簡歷。 而且,在一個特別引人注目的案例中,人工智慧演算法錯誤地識別了一起嚴重襲擊事件的嫌疑人,導致了錯誤的逮捕。 然而,儘管存在失誤,人工智慧仍有望徹底改變所有這些領域。
制定正確的責任格局對於釋放人工智慧的潛力至關重要。 不確定的規則和潛在的高昂訴訟費用將阻礙對人工智慧系統的投資、開發和採用。 人工智慧在醫療保健、自動駕駛汽車和其他行業的更廣泛應用取決於確定誰(如果有)最終對人工智慧系統造成的傷害承擔責任的框架。
人工智慧挑戰了傳統的責任。 例如,當一個“黑匣子”演算法——變數的身份和權重動態變化,因此沒有人知道預測中包含什麼——推薦一種最終造成傷害的治療方法,或者在人類駕駛員能夠做出反應之前魯莽地駕駛汽車時,我們如何分配責任? 這真的是醫生或司機的錯嗎? 是建立人工智慧的公司的錯嗎? 如果他們鼓勵採用,其他所有人——醫療系統、保險公司、製造商、監管機構——應該承擔什麼責任? 這些都是尚未解答的問題,對於建立人工智慧在消費產品中的負責任使用至關重要。
與所有顛覆性技術一樣,人工智慧功能強大。 如果建立和測試得當,人工智慧演算法可以幫助進行診斷、市場研究、預測分析以及任何需要分析大型資料集的應用。 麥肯錫最近的一項全球調查顯示,全球超過一半的公司報告稱已在其日常運營中使用人工智慧。
然而,責任常常集中在最容易攻擊的目標上:使用演算法的終端使用者。 責任調查通常從撞毀汽車的司機或做出錯誤治療決定的醫生開始並結束。
誠然,如果終端使用者濫用人工智慧系統或忽視其警告,他或她應該承擔責任。 但人工智慧錯誤通常不是終端使用者的錯。 誰能責怪急診室醫生的人工智慧演算法遺漏了視乳頭水腫——一種視網膜腫脹? 人工智慧未能檢測到病情可能會延誤治療,並可能導致患者失明。 然而,如果沒有眼科醫生的檢查,視乳頭水腫很難診斷,因為通常需要更多的臨床資料,包括腦部影像和視力,作為檢查的一部分。 儘管人工智慧在各個行業都具有革命性的潛力,但如果終端使用者對可能致命的錯誤承擔全部責任,他們將避免使用人工智慧。
將責任完全轉移到人工智慧設計者或採用者身上也無法解決問題。 當然,設計者建立了所討論的演算法。 但每起特斯拉事故都是特斯拉的錯,可以透過在產品釋出前進行更多測試來解決嗎? 事實上,一些人工智慧演算法不斷自學習,獲取其輸入並動態地使用它們來改變輸出。 沒有人可以確定人工智慧演算法究竟是如何得出特定結論的。
關鍵是要確保所有利益相關者——使用者、開發者以及從產品開發到使用的整個鏈條上的每個人——承擔足夠的責任,以確保人工智慧的安全性和有效性——但又不會多到讓他們放棄人工智慧。
為了在促進創新的同時保護人們免受人工智慧故障的影響,我們提出了三種修改傳統責任框架的方法。
首先,保險公司必須透過在使用前測試和驗證新的人工智慧演算法來保護投保人免受因人工智慧傷害而被起訴的過高成本,就像汽車保險公司多年來一直在比較和測試汽車一樣。 獨立的安全系統可以為人工智慧利益相關者提供可預測的責任系統,該系統可以適應新技術和方法。
其次,一些人工智慧錯誤應該在專門法院審理,這些法院具有裁決人工智慧案件的專業知識。 這些專門法庭可以培養特定技術或問題方面的專業知識,例如處理兩個人工智慧系統(例如,兩輛自動駕駛汽車相撞)的互動。 這種專門法院並不新鮮:例如,在美國,專門法院透過裁決疫苗傷害並深入瞭解該領域,幾十年來一直保護著兒童疫苗製造商。
第三,來自美國食品藥品監督管理局 (FDA) 或 NHTSA 等聯邦機構的監管標準可以抵消開發人員和一些終端使用者的過度責任。 例如,聯邦法規和立法取代了醫療裝置或殺蟲劑的某些形式的責任。 監管機構應認為某些人工智慧風險過高,不宜在沒有測試、重新測試或驗證標準的情況下引入市場。 聯邦監管機構應主動關注人工智慧開發的標準流程。 這將使監管機構能夠保持敏捷性並預防與人工智慧相關的傷害,而不是在為時已晚時才做出反應。 相比之下,儘管州和地方消費者保護和衛生機構無法建立國家監管體系,但它們可以幫助澄清特定領域的行業標準和規範。
用過時的責任體系阻礙人工智慧將是可悲的:自動駕駛汽車將為許多缺乏交通工具的人們帶來出行便利。 在醫療保健領域,人工智慧將幫助醫生選擇更有效的治療方法、改善患者預後,甚至在以超支聞名的行業中降低成本。 從金融到網路安全,各行各業都處於人工智慧革命的風口浪尖,這場革命可能使全球數十億人受益。 但這些好處不應被開發不良的演算法所削弱。 因此,21世紀的人工智慧需要21世紀的責任體系。
這是一篇觀點和分析文章,作者或作者表達的觀點不一定代表《大眾科學》的觀點。
