當美軍在2003年入侵伊拉克時,他們打了一場傳統的人與人之間的戰爭。從那時起,機器人加入了戰鬥。在伊拉克和阿富汗,數千個“無人”系統正在拆除路邊的簡易爆炸裝置,首次窺探狙擊手的巢穴,並向塔利班的藏身之處發射導彈。機器人正像一種新的機電外星物種剛剛降落在我們的星球上一樣湧入戰場。
戰爭技術的進步速度超過了旨在限制其使用的國際法體系,這並非首次。在第一次世界大戰期間,大炮向毫無防備的城市發射化學武器,飛機向城市投擲炸彈。直到後來,各國才就瞄準小學旁邊的軍工廠是否可以接受達成一致意見。
今天正在發生類似的事情,而且可能產生更深刻和令人不安的後果。正如布魯金斯學會分析師P. W. Singer在《機器戰爭》中所描述的那樣,機器人的興起導致了可怕的前景,即國家發動戰爭的規則手冊變得過時。國家之間的武裝衝突是殘酷的,但至少它是按照一套既基於國際法又基於軍事紀律要求的規則進行的。在激烈的戰鬥中,並非一切都可以為所欲為。“這些規則當然並非總是被遵守,但它們的存在正是將戰爭中的殺戮與謀殺區分開來,並將士兵與罪犯區分開來的原因,”辛格在他最近關於軍事機器人革命的暢銷書《Wired for War》中寫道。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。
當機器人投入戰爭時,這些規則被拉伸到了極限。法律和倫理問題比比皆是。當捕食者導彈擊中錯誤目標時,誰來負責?來自失控無人機的導彈已經在伊拉克、阿富汗和巴基斯坦造成多達1000名平民死亡。責任應該由在中東地區識別“感興趣目標”的現場指揮官承擔嗎?還是應該將責任分攤給駐紮在拉斯維加斯附近軍事基地的“遠端飛行員”,後者從7000英里外發動了襲擊?那麼,一個可能犯了導致誤射的程式設計錯誤的軟體工程師呢?
考慮遠端戰爭的交戰規則提出了一系列超現實的問題。內華達州的遠端操作員在下班後去沃爾瑪或女兒的足球比賽的路上,是否仍然是合法的戰鬥人員——換句話說,是合法的敵人目標?戰士和平民之間日益模糊的界限是否會引來對美國本土住宅和學校的襲擊?
遙控機器人將繼續存在,並且可以制定規則來規範其使用。但更嚴重的威脅來自半自主機器,人類對其僅保留最後一刻的否決權。這些系統只需進行軟體升級即可實現完全自主執行。人形機器人能夠自主搜尋和殺戮(終結者的陰影)的前景應該讓我們所有人深思。自動駕駛儀自行決定射擊物件違反了國際人道主義法中“人道”的部分,該部分承認某些武器是如此令人憎惡,以至於應該被消除。
有些人可能會稱禁止自主機器人為天真,或者抱怨這會束縛士兵面對非正規戰爭的手腳。但是,儘管機器人具有明顯的戰術優勢,但它們也帶來了沉重的戰略代價。戰爭法不是慈善行為,而是利己行為;如果化學武器和生物武器被廣泛使用,美國將會被削弱,而不是被加強,機器人也是如此。它們是抵消常規軍事力量的一種廉價方式,其他國家和黎巴嫩真主黨等組織已經在部署它們。美國可能並不總是這項技術的領導者,並且最好從強勢地位出發談判限制其使用。我們永遠無法將精靈放回瓶子裡,但阻止這項技術的進一步發展可以限制損害。
最適合致力於禁令的組織是紅十字國際委員會,日內瓦公約的守護者。一個好的起點是召開一次峰會,在與化學和生物製劑相同的框架內審議武裝自主機器人。整個科學界應該像普格沃什運動致力於核武器控制一樣,參與到這個問題中來。現在是採取措施確保機器戰爭仍然只是科幻噩夢的時候了。