在俄羅斯和烏克蘭之間的衝突中,影片片段顯示無人機深入俄羅斯境內,距離邊境超過1000公里,摧毀了石油和天然氣基礎設施。專家表示,很可能人工智慧(AI)正在幫助引導無人機到達目標。對於這類武器,無需人員扣動扳機或做出最終的引爆決定。
包括配備人工智慧的無人機在內的致命自主武器(LAWs)的研發正在興起。例如,美國國防部迄今已為其“複製者”計劃撥款10億美元,該計劃旨在建立一支小型武器化自主車輛 fleet。實驗性的潛艇、坦克和艦艇已經制造出來,它們使用人工智慧來駕駛和射擊。市面上可購買的無人機可以使用人工智慧影像識別來鎖定目標並將其炸燬。LAW 的執行不需要人工智慧,但這項技術增加了速度、精確性和規避防禦的能力。一些觀察家擔心,未來任何派別都可能派遣成群廉價的人工智慧無人機,使用面部識別技術來消滅特定人員。
戰爭是人工智慧相對簡單的應用。“對於一個系統來說,找到一個人並殺死他,其技術能力遠比開發一輛自動駕駛汽車容易。這只是一個研究生專案,”加州大學伯克利分校的計算機科學家、反對人工智慧武器的著名活動家斯圖爾特·羅素說。他幫助製作了一段 2017 年病毒式傳播的影片,名為《殺戮機器人》,強調了可能的風險。
關於支援科學新聞業
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞業 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續報道關於塑造我們當今世界的發現和想法的具有影響力的故事。
人工智慧在戰場上的出現引發了研究人員、法律專家和倫理學家的辯論。一些人認為,人工智慧輔助武器可能比人工制導武器更精確,有可能減少附帶損害——例如平民傷亡和居民區破壞——以及士兵的傷亡人數,同時幫助弱勢國家和群體自衛。另一些人則強調,自主武器可能會犯下災難性錯誤。許多觀察家對將目標鎖定決策權交給演算法存在普遍的倫理擔憂。
多年來,研究人員一直在呼籲控制這種新威脅。現在,聯合國已經邁出了關鍵一步。去年 12 月的一項決議將 LAWs 的議題列入了今年 9 月舉行的聯合國大會議程。聯合國秘書長安東尼奧·古特雷斯去年 7 月表示,他希望在 2026 年之前禁止在沒有人為監督的情況下執行的武器。哈佛大學法學院人權律師邦妮·多徹蒂說,在停滯不前的十年左右之後,將這個議題列入聯合國議程意義重大。“外交進展緩慢,但這是一個重要的步驟,”她說。
專家表示,此舉為各國就人工智慧武器採取行動提供了第一個現實途徑。但這說起來容易做起來難。這些武器引發了關於人類能動性、問責制以及官員應該在多大程度上將生死攸關的決定外包給機器的難題。
受到控制?
控制和規範武器使用的努力可以追溯到數百年前。例如,中世紀的騎士同意不使用長矛攻擊對方的馬匹。1675 年,交戰中的法國和神聖羅馬帝國同意禁止使用毒子彈。
今天,對武器的主要國際限制是透過聯合國《特定常規武器公約》(CCW),這是一項 1983 年的條約,例如,它已被用於禁止致盲雷射武器。
各種各樣的自主武器至少已經存在了幾十年,包括尋熱導彈,甚至(取決於如何定義自主性)可以追溯到美國內戰的壓力觸發地雷。然而,現在,人工智慧演算法的開發和使用正在擴充套件它們的能力。
自 2013 年以來,CCW 一直在正式調查人工智慧增強型武器,但由於它需要國際共識才能透過法規——並且由於許多積極開發這項技術的國家反對任何禁令——進展一直緩慢。今年 3 月,美國主辦了一次關於《負責任地軍事使用人工智慧和自主性政治宣言》的首次全體會議,這是一項平行的努力,強調自願的最佳實踐指南,而不是具有法律約束力的禁令。
部分問題在於對於 LAWs 究竟是什麼缺乏共識。2022 年的一項分析發現,各國和組織(如北大西洋公約組織(NATO))至少提出了十幾種自主武器系統的定義。羅素說,這些定義範圍廣泛,並且在人工智慧方面顯示出有限的共識,甚至是對人工智慧的理解。
例如,英國表示,LAWs “能夠理解更高級別的意圖和指示”,而中國表示,這種武器可以“自主學習,以超出人類期望的方式擴充套件其功能和能力”。以色列宣告:“我們應該遠離機器發展、創造或自我啟用的虛幻景象——這些應該留給科幻電影。” 德國將“自我意識”作為自主武器的必要屬性——大多數研究人員認為,即使不是完全不可能,這種品質也遠遠超出了今天人工智慧所能達到的水平。
“這有點意味著武器必須在早上醒來,並決定自行去攻擊俄羅斯,”羅素說。
儘管需要制定更全面、具體和現實的 LAWs 定義,但一些專家表示,這可以稍後再做。“傳統上在裁軍法中,雖然這與直覺相反,但實際上他們通常在談判中最後才進行定義,”多徹蒂說。一個工作定義通常足以啟動該過程,並且可以幫助緩解最初反對行動的國家的反對意見。
人工智慧的優勢
根據南丹麥大學戰爭研究中心在歐登塞釋出的2023 年分析,今天軍隊指揮官可以使用的由人工智慧引導的自主武器相對粗糙——移動緩慢且笨拙的無人機,配備了足以炸燬自身及其目標的炸藥。
這些“巡飛彈藥”可以像模型飛機那麼大,成本約為 5 萬美元,並可攜帶幾公斤炸藥飛行 50 公里,足以摧毀車輛或殺死單個士兵。這些彈藥使用車載感測器,監控光學、紅外或射頻以檢測潛在目標。人工智慧將這些感測器輸入與預先指定的坦克、裝甲車和雷達系統以及人類的輪廓進行比較。
觀察家表示,這些自主炸彈相對於遙控無人機提供的最顯著優勢在於,如果對方擁有干擾電子通訊的裝置,它們仍然可以工作。自主操作消除了遠端操作員可能被敵人追蹤並受到攻擊的風險。
儘管有傳言稱,2020 年在利比亞,自主彈藥殺死了戰鬥人員,但來自烏克蘭衝突的報告鞏固了人工智慧無人機現在正在使用的觀點。“我認為現在人們普遍接受,在烏克蘭,他們已經轉向完全自主武器,因為電子干擾非常有效,”羅素說。烏克蘭軍事指揮官亞羅斯拉夫·洪查爾等表示,該國“已經進行了完全機器人化的行動,無需人為干預”。
很難知道人工智慧武器在戰場上的表現如何,很大程度上是因為軍方不釋出此類資料。在去年 9 月英國議會的一次質詢中,當被直接問及人工智慧武器系統時,英國戰略司令部副司令湯姆·科普林格-賽姆斯沒有透露太多資訊,只是說該國軍方正在進行基準研究,以比較自主系統和非自主系統。“不可避免地,你想檢查一下,與擁有十名影像分析師檢視同一件事的舊式系統相比,這是否物有所值,”他說。
儘管現實世界的戰場資料稀少,但研究人員指出,人工智慧具有卓越的處理和決策技能,從理論上講,這提供了顯著的優勢。例如,在年度快速影像識別測試中,近十年來,演算法的效能一直優於人類專家的表現。去年的一項研究表明,人工智慧可以比人類專家更快、更全面地在科學論文中找到重複的影像。
2020 年,一個人工智慧模型在一系列模擬空戰中擊敗了一名經驗豐富的 F-16 戰鬥機飛行員,這要歸功於“人類飛行員無法匹敵的積極而精確的機動”。然後在 2022 年,中國軍事研究人員表示,一架人工智慧驅動的無人機在與一架由地面人員遠端操控的飛機的對抗中勝出。人工智慧飛機飛到了對手的尾部,並進入了可以將其擊落的位置。
華盛頓特區戰略與國際研究中心的安保分析師扎克·卡倫伯恩說,無人機人工智慧可以就“如何執行特定機動、與對手的飛行距離以及攻擊角度做出非常複雜的決策”。
不過,卡倫伯恩說,目前尚不清楚人工智慧武器能提供什麼顯著的戰略優勢,尤其是如果雙方都能獲得它們的話。“一個很大的問題不是技術本身,而是軍隊如何使用這項技術,”他說。
從理論上講,人工智慧還可以用於戰爭的其他方面,包括編制潛在目標清單;媒體報道引發了人們的擔憂,例如,以色列使用人工智慧建立了一個包含數萬名疑似武裝分子姓名的資料庫,儘管以色列國防軍在一份宣告中表示,它不使用“識別恐怖分子行動人員”的人工智慧系統。
底線
通常用於評估自主武器倫理的一個關鍵標準是它們的可靠性以及可能出錯的程度。例如,2007 年,英國軍方匆忙重新設計了其自主的“硫磺石”導彈,以用於阿富汗,原因是擔心它可能會將一輛載有學童的公共汽車誤認為是一卡車叛亂分子。
卡倫伯恩說,人工智慧武器可以相當容易地鎖定紅外或強大的雷達訊號,將它們與資料庫進行比較,以幫助判斷是什麼。“這效果相當好,因為走在街上的小孩子不會在他的揹包裡攜帶大功率雷達,”卡倫伯恩說。這意味著,當人工智慧武器在戰場上檢測到傳入的雷達訊號源時,它可以開火,而幾乎沒有傷害平民的風險。
但視覺影像識別更成問題,他說。“當它基本上只是一個像攝像頭這樣的感測器時,我認為你更容易出錯,”卡倫伯恩說。儘管人工智慧擅長識別影像,但它並非萬無一失。他說,研究表明,對圖片進行微小的改動可能會改變神經網路對它們的分類方式——例如,導致它們將飛機與狗混淆。
倫理學家劃分的另一個可能的界限是武器的使用方式:例如,是攻擊還是防禦。複雜的自主雷達制導系統已經用於在海上防禦來自快速來襲目標的艦船。英國蘭卡斯特大學研究人與機器之間互動的社會學家露西·薩奇曼說,倫理學家對這種型別的自主武器更放心,因為它針對的是軍械而不是人,而且因為這些訊號很難被錯誤地歸因於其他任何東西。
研究人員和軍方普遍提出的一項原則是,自主武器應該有“人在迴路中”。但是,人員應該或必須在何處以及如何參與仍然存在爭議。包括薩奇曼在內的許多人通常將這個想法解釋為意味著人類操作員必須在授權打擊之前目視驗證目標,並且必須能夠在戰場條件發生變化時(例如,如果平民進入戰區)取消打擊。但它也可能意味著人類只需在武器發射之前程式設計輸入目標的描述——一種稱為“發射後不管”的功能。
一些系統允許使用者根據情況在完全自主模式和人工輔助模式之間切換。薩奇曼和其他人說,這還不夠好。“要求人類停用自主功能並不構成有意義的控制,”她說。
完全自主性的概念也混淆了關於問責制的問題。“我們非常擔心自主武器系統的使用會陷入問責制空白,因為顯然,你不能讓武器系統本身承擔責任,”多徹蒂說。她補充說,讓操作員對自主執行的系統的行為負責,在法律上也將具有挑戰性,而且可以說是不公平的。
羅素建議“車載計算與發射電路之間不應有通訊”。這意味著發射必須由遠端操作員啟用,並且永遠不能由人工智慧啟用。
在 LAWs 的討論中,至少有一點是(幾乎)每個人似乎都同意的:即使是通常反對管制的國家,包括美國和中國,也表示自主代理,包括那些配備人工智慧的代理,也不應在發射核武器的決策中發揮任何作用,羅素說。
然而,俄羅斯在這個問題上似乎更加謹慎。人們普遍認為,莫斯科已經重啟了一項名為“周界”的冷戰計劃,該計劃——至少在理論上——可以在沒有人為監督的情況下對西方發動首次核打擊。美國和中國在關於自主武器的各種會談中提出了這個問題,許多人認為這可能會給俄羅斯帶來改變其戰略的壓力。
監管系統
卡倫伯恩說,不幸的是,任何禁止使用 LAWs 的禁令都很難透過檢查和觀察來執行——這是通常用於其他受管制武器的經典“信任但驗證”方法。
例如,對於核武器,有一個完善的現場檢查和核材料審計系統。但對於人工智慧來說,事情更容易隱藏或隨時更改。“這可能就像簡單地更改幾行程式碼,說,好吧,現在機器可以決定去炸燬這個東西了。或者,你知道,刪除程式碼,然後在軍備管制檢查員在那裡時再放回去,”卡倫伯恩說。“這要求我們重新思考在武器系統和軍備控制中如何考慮核查。”
卡倫伯恩說,檢查可能不得不從生產時切換到事後。“這些東西會被擊落。它們會被俘獲。這意味著你可以進行檢查並檢視程式碼,”他說。
所有這些問題都將融入聯合國大會今年 9 月開始的討論中;奧地利還在 4 月底設立了一個先期會議,以幫助啟動這些對話。多徹蒂說,如果到 9 月份有足夠多的國家投票支援採取行動,那麼聯合國可能會成立一個工作組來闡明這些問題。
多徹蒂補充說,一項條約可能會在三年內達成,她在聯合國 2017 年《禁止核武器條約》的談判中發揮了關鍵作用。“以我的經驗來看,一旦談判開始,進展就會相對迅速。”
本文經許可轉載,並於 2024 年 4 月 23 日首次發表。
