“機器從核火的灰燼中崛起。” 骷髏在機器人坦克履帶下被碾碎。漂浮的陰影飛行器發出雷射閃光。渺小的人類身影四處奔逃。
這些標誌性的畫面開啟了《終結者》,這部電影或許比任何其他電影都更集中地將 20 世紀 80 年代的科幻恐懼凝聚成一部(相當不錯的)電影,背景設定在 2029 年核戰後的洛杉磯。
當我們衝向人工智慧的未來,軍備競賽再次重燃,而對安全問題的思考卻少之又少時,我們是否正走向類似好萊塢的地獄景象,機器已經殺死或奴役了幾乎整個人類?
關於支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續刊登關於發現和塑造我們當今世界的思想的具有影響力的報道。
嗯,是的,現在正在發生。俄羅斯和烏克蘭已經互相發動無人機襲擊兩年了,而且越來越多的無人機是自主的。據稱,以色列一直在加沙使用人工智慧目標定位程式,針對數千個基礎設施和人類目標,在許多情況下幾乎沒有或根本沒有人為監督。
更貼近本土,美國國防部一直在公開大力宣傳其將人工智慧納入其武器系統許多方面的計劃。國防部副部長凱瑟琳·希克斯表示,在 2023 年底在五角大樓釋出新的 AI 戰略時:“當我們專注於以負責任且快速的方式將人工智慧融入我們的行動時,我們這樣做的主要原因一直很簡單:因為它提高了我們的決策優勢。”
將人工智慧納入武器系統的趨勢主要是因為它在整合資訊以做出決策方面的速度;在許多工中,人工智慧已經比人類快數千倍,很快將快數百萬倍,然後是數十億倍。這種“加速決策優勢”邏輯,即新的 AI 戰略檔案的副標題,可以應用於所有型別的武器系統,包括核武器。
專家們已經警告過將先進的人工智慧系統納入監視和武器發射系統,包括詹姆斯·約翰遜在 12 月出版的著作《人工智慧與炸彈》:數字時代的核戰略與風險 中也提出了警告,該書認為我們正走在一條將人工智慧納入核武器系統的道路上,而核武器是有史以來開發的最危險的武器。佐治亞州前參議員薩姆·納恩是國防政策領域長期以來備受尊敬的聲音,還有許多其他人也警告說,如果以這種方式使用人工智慧,可能會發生災難。
納恩和與他共同創立的核威脅倡議相關的其他人在一份檔案中提出的“全球核秩序”七項原則之一是:“建立強大且公認的方法來增加領導人的決策時間,尤其是在緊張局勢加劇和極端情況下,當領導人擔心自己的國家可能受到攻擊威脅時,這可能是一個共同的概念目標,將近期和長期步驟聯絡起來,以管理不穩定並努力實現共同安全。” 顯而易見,這項原則與當前將人工智慧投入一切領域的趨勢背道而馳。事實上,納恩和他的合著者提出的下一項原則認識到這種內在衝突:“人工智慧……可能會危險地壓縮決策時間,並使高度致命武器的安全管理複雜化。”
我就這些問題採訪了軍事和人工智慧專家,雖然對於威脅的具體性質或解決方案沒有達成共識,但人們普遍感到人工智慧在核武器使用方面存在非常嚴重的潛在危害。
2 月,國務院釋出了格拉德斯通人工智慧公司(Gladstone AI)關於人工智慧安全問題的一份主要報告,該公司由國家安全專家愛德華和傑里米·哈里斯創立。我聯絡了他們,詢問我認為他們的報告中遺漏的一些內容。雖然愛德華並不認為將人工智慧納入核武器監視和發射決策是一個近期威脅(他們的報告更側重於常規武器系統),但他在我們討論結束時表示,擔心被敵人使用人工智慧搶先或欺騙是一個潛在軍事升級的“有意義的風險因素”。他認為,“政府不太可能將核武器的控制權交給人工智慧……而不是將常規武器的控制權交給人工智慧。”
但在我們的對話中,他承認,擔心被人工智慧虛假資訊欺騙“可能是促使各國將核武庫的控制權移交給人工智慧系統的原因:這些人工智慧系統在面對對抗性人工智慧生成的虛假資訊時,可能比人類更勝任做出判斷”。約翰遜在《人工智慧與炸彈》中勾勒了這種情景。
約翰·馮·諾伊曼是一位才華橫溢的匈牙利裔美國數學家,他將博弈論發展成為數學的一個分支,他是核先發制人作為一種“預防性戰爭”的倡導者。對他來說,博弈論和理智強烈地表明,美國應該在蘇聯發展出足以使任何此類打擊成為相互自殺的核武庫之前,狠狠地打擊蘇聯。他在 1950 年評論道:“如果你問為什麼不明天轟炸他們,我說為什麼不是今天?如果你說今天五點,我說為什麼不是一點?”
儘管這位傑出人物提出了鷹派建議,但美國實際上並沒有用核彈或常規炸彈襲擊蘇聯。但是,納入常規和核武器系統的人工智慧會採取馮·諾伊曼式的鷹派博弈論方法嗎?還是這些程式會採用更富同情心和人性的決策準則?
我們今天當然無法知道,國防政策制定者及其人工智慧程式設計師也無法知道,因為今天的大型語言模型(LLM)人工智慧的工作原理是出了名的“黑匣子”。這意味著我們根本不知道這些機器是如何做出決策的。雖然以軍事為中心的人工智慧肯定會接受培訓並獲得指導方針,但在事後之前,無法知道人工智慧在任何特定情況下會如何反應。
而這正是貿然將人工智慧納入我們武器系統所帶來的真正深刻而令人不寒而慄的風險。
有些人認為,核武器系統與常規武器系統不同,軍事決策者會抵制將人工智慧納入這些系統的衝動,因為風險要高得多,而且大幅加速發射決策可能沒有任何明顯的優勢。
戰術核武器的興起,它體積更小,專為潛在的戰場使用而設計,大大模糊了這些界限。俄羅斯就可能在烏克蘭使用戰術核武器發出的武力恫嚇使這種區別變得過於真實。
我們現在就需要健全的法律,以阻止將人類從核決策中排除。最終目標是沒有“核灰燼”,也沒有天網。永遠。
這是一篇觀點和分析文章,作者或作者表達的觀點不一定代表《大眾科學》的觀點。
