人工智慧已經在接管許多人類寧願不做的人工、耗時的任務方面取得了重大進展。 然而,將工作移交給人工智慧的責任和後果差異很大; 一些自主系統推薦音樂或電影; 其他系統則在法庭上提出量刑建議。 即使是更先進的人工智慧系統也將越來越多地控制擁擠城市街道上的車輛,從而引發關於安全以及在不可避免的事故發生時關於責任的問題。
但是,關於人工智慧對人類生存威脅的哲學論證,通常與實際構建和使用相關技術的現實相去甚遠。 深度學習、機器視覺、自然語言處理——儘管關於這些人工智慧和其他方面已經有很多著作和討論,但人工智慧仍處於發展的相對早期階段。 專家們爭論著自主、有自我意識的機器人失控的危險,即使計算機科學家們仍在苦苦思索如何編寫機器視覺演算法,以區分烏龜和步槍的影像。
儘管如此,在人工智慧成為現代生活中真正普遍的力量之前,認真思考社會將如何管理人工智慧顯然非常重要。 哈佛大學肯尼迪政府學院的研究人員、學生和校友于 2014 年成立了未來社會,其目的正是為了促進關於如何管理新興技術(尤其是人工智慧)的國際對話。大眾科學採訪了尼古拉斯·埃科諾穆,他是未來社會人工智慧倡議的高階顧問,也是H5的執行長,該公司開發軟體來幫助律師事務所進行電子文件、電子郵件和資料庫的審前分析,也稱為電子取證。 埃科諾穆談到了人類可能如何被認為是負有責任的(即使機器在發號施令),以及歷史告訴我們關於社會有義務利用已被證明可以帶來諸如提高安全性等好處的新技術。
關於支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。 透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。
[以下是對話的編輯稿。]
您對人工智慧的主要擔憂是什麼?
我是一名受過培訓的政治科學家,也是一位倡導在法律系統中逐步採用人工智慧的企業家。 因此,我堅信人工智慧可以成為一種向善的力量。 但我認為它需要被治理,因為它確實會帶來風險。 人們以不同的方式談論風險,但我最感興趣的風險是,將影響我們權利、自由或機會自由的決策權交給機器。 我們做出的決定不僅基於理性思維,還基於價值觀、倫理、道德、同理心以及是非感——所有這些都是機器本身不具備的。 此外,人們可以為自己的決定負責,而機器則不能。
誰應該為人工智慧的決策負責?
這就涉及到了能力問題。 在完全自主的人工智慧系統中,你可以說:製造商。 但今天大多數人工智慧都不是自主的; 它依賴於人類操作員。 如果該人沒有足夠的知識來正確使用人工智慧,例如在醫學、法律或金融服務領域做出重要決策時,該人是否應該為錯誤承擔責任? 考慮 [2016] 年的州訴盧米斯案,其中法官部分依賴於黑匣子、秘密演算法來評估被告是否有累犯風險。 該演算法評估 [盧米斯] 為高風險,但人工智慧用於生成評估的方法並未向法院或被告披露。 法官在判處六年監禁時考慮了該建議。 美國最高法院拒絕審理該案,因此它現在已成為法律。 現在,您可能會因為部分人工智慧演算法的評估而被判處長期監禁,而幾乎沒有追索權。 法官是否有能力理解演算法評估是否充分且有可靠的經驗證據支援? 答案可能是否定的,因為法官和律師通常不是訓練有素的科學家。
如何開發大多數人都能理解的透明人工智慧系統?
誠然,人工智慧可能擁有世界上所有的透明度,但我們作為公民卻無法理解人工智慧在做什麼。 也許科學家可以理解它,但為了讓公民掌握權力,我們需要知道某件事是否會在現實世界中發揮作用。 可以考慮的一個模型是汽車。 普通人可以從頭到尾觀看汽車的建造過程,但仍然不知道汽車是否可以安全駕駛。 相反,您相信汽車是安全的,因為您查閱了公路安全保險協會提供的評級,該協會每天都會撞毀汽車以確定它們的安全性。 [因此],作為一名公民,我現在擁有可以用來評估一個非常複雜的社會技術系統的資訊,該系統涉及技術和人類智慧。 我有一些非常簡單的指標,可以告訴我汽車是否安全。 雖然演算法的透明度有所幫助,但瞭解它們是否在現實世界的應用中有效,以及是否在人類操作員手中有效,才是關鍵。
當人們被告知人工智慧風險時,這是否會將責任或義務轉移給使用人工智慧的人?
責任是一個巨大的法律問題。 例如,對於自動駕駛汽車,您可以檢視駕駛員對汽車的控制程度。 如果駕駛員沒有任何控制權,那麼您會期望製造商或參與組裝汽車的其他公司承擔更多的責任和義務。 當駕駛員擁有更多控制權時,情況會變得更加複雜,您可能會檢視是誰做出了導致撞車的決定。 有幾個與責任相關的有趣問題。 仍然以汽車為例,讓我們 [假設] 如果每個人都駕駛自動駕駛汽車,我們將每年減少 20,000 例與交通事故相關的死亡。 如果是這樣,那麼公共政策目標將是鼓勵人們使用自動駕駛汽車。 但與此同時,人們對這項技術感到恐懼。 因此,您可以想象幾種支援您的政策目標以挽救這 20,000 條生命的方法。 一種方法可能是設計自動駕駛汽車,使其優先考慮乘員的安全而不是行人和其他駕駛員。 換句話說,您在車內比在車外更安全。 這將鼓勵人們克服對自動駕駛汽車的恐懼,從而支援您的政策目標。 但隨後社會將賦予某些生命(即車輛內部的生命)比其他生命更高的價值。
鼓勵人們使用自動駕駛汽車的另一種方法本質上是辯稱,如果您知道人工智慧駕駛的汽車更安全,那麼駕駛傳統汽車是不負責任的。 1930 年代有一個名為T. J. Hooper 案的案例,其中兩艘駁船在風暴中丟失,部分原因是擁有這些船隻的公司沒有為它們配備無線電裝置。 判決是,如果開發出明顯有效的新技術,那麼必須將其用作預防措施。 最終,如果汽車駕駛員選擇駕駛而不是乘坐統計上更安全的自動駕駛汽車,他是否會承擔更多責任?
當人工智慧技術本身仍在不斷發展和定義時,如何制定人工智慧公共政策?
我不確定定義人工智慧是否有很大幫助。 我們仍然沒有一個普遍接受的智慧定義,因此很難為人工智慧做到這一點。 規範人工智慧使用的規範應該足夠廣泛,以便它們接受來自任何地方的創新。 但它們應該足夠狹窄,以便對它的使用方式以及它如何影響人們提供有意義的約束。 有效的過程將有四個層次:首先是價值觀。 我們希望人工智慧為我們做什麼?; 從那裡,您轉向道德原則。 人工智慧應該如何開展工作?; 然後您可以制定公共政策建議; 最後,研究實施該政策所需的實際技術控制。
