阿西莫夫定律無法阻止機器人傷害人類,因此我們開發了一種更好的解決方案

與其制定法律來限制機器人行為,不如賦予機器人權力,使其能夠為任何特定場景選擇最佳解決方案

以下文章經許可轉載自The Conversation,這是一個報道最新研究的線上出版物。

如何阻止機器人傷害人類? 許多現有的機器人,例如工廠裡組裝汽車的機器人,當人類靠近時會立即關閉。 但是這種權宜之計不適用於自動駕駛汽車,因為自動駕駛汽車可能需要移動以避免碰撞,或者不適用於護理機器人,因為護理機器人可能需要接住跌倒的老人。 隨著機器人即將成為我們的僕人、夥伴和同事,我們需要處理由此產生的日益複雜的情況,以及由此引發的倫理和安全問題。


支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。 透過購買訂閱,您將幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事擁有未來。


科幻小說已經預見到了這個問題,並提出了各種潛在的解決方案。 最著名的是作家艾薩克·阿西莫夫的機器人三定律,該定律旨在防止機器人傷害人類。 但自 2005 年以來,我在赫特福德大學的同事和我一直在研究一個想法,這可能是一種替代方案。

我們認為,與其制定法律來限制機器人行為,不如賦予機器人權力,使其能夠最大限度地增加其可採取行動的方式,以便它們能夠為任何特定場景選擇最佳解決方案。 正如我們在Frontiers上發表的一篇新論文中所述,這項原則可以構成一套新的通用機器人指南的基礎,以儘可能確保人類的安全。

三定律

阿西莫夫的三定律如下:

  • 機器人不得傷害人類,也不得因不作為而使人類受到傷害。

  • 機器人必須服從人類的命令,除非這些命令與第一定律相沖突。

  • 機器人必須保護自身的存在,只要這種保護不與第一或第二定律相沖突。

 

雖然這些定律聽起來似乎合理,但許多論點已經證明了為什麼它們是不充分的。 阿西莫夫自己的故事可以說對這些定律進行了解構,展示了它們如何在不同情況下反覆失敗。 大多數起草新指南的嘗試都遵循類似的原則,即建立安全、順從和穩健的機器人。

任何明確制定的機器人指南都存在一個問題,那就是需要將它們翻譯成機器人可以使用的格式。 理解人類語言的全部範圍及其所代表的經驗,對於機器人來說是一項非常艱鉅的任務。 廣泛的行為目標,例如防止傷害人類或保護機器人的存在,在不同語境中可能意味著不同的事物。 堅持規則最終可能會使機器人無能為力,無法按照其創造者的期望行事。

我們提出的替代概念——賦能,代表著與無助相反的狀態。 賦能意味著有能力影響局勢,並且意識到自己可以做到。 我們一直在開發將這種社會概念轉化為可量化和可操作的技術語言的方法。 這將賦予機器人保持其選擇開放並以增加其對世界影響的方式行動的驅動力。

當我們嘗試模擬機器人在各種場景中如何使用賦能原則時,我們發現它們通常會以令人驚訝的“自然”方式行事。 這通常只需要它們對現實世界如何運作進行建模,而不需要任何專門的人工智慧程式設計來處理特定的場景。

但為了確保人們的安全,機器人需要努力維護或提高人類的賦能以及它們自身的賦能。 這本質上意味著具有保護性和支援性。 為某人開啟鎖著的門會增加他們的賦能。 約束他們會導致短期賦能的喪失。 而嚴重傷害他們可能會完全剝奪他們的賦能。 與此同時,機器人必須努力維護自身的賦能,例如確保它有足夠的電力執行,並且不會被卡住或損壞。

機器人可以適應新的情況

使用這種通用原則而不是預定義的行為規則,將允許機器人考慮情境並評估以前沒有人預想到的場景。 例如,機器人通常會避免推人,但仍然能夠將人推出墜落物體的路徑,而不是總是遵循“不要推人”的規則。 人類可能仍然會受到傷害,但會比機器人不推他們受到的傷害要小。

在根據阿西莫夫的幾個故事改編的電影《我,機器人》中,機器人建立了一個壓迫性的狀態,旨在透過限制人類並將他們“保護”起來,最大限度地減少對人類的總體傷害。 但我們的原則會避免這種情況,因為它會導致人類賦能的喪失。

雖然賦能為思考安全的機器人行為提供了一種新方法,但我們仍然需要做大量工作來擴充套件其效率,以便它可以輕鬆地部署在任何機器人上,並在各個方面轉化為良好和安全的行為。 這提出了一個非常困難的挑戰。 但我們堅信,賦能可以引導我們找到一個切實可行的解決方案,以解決如何控制機器人行為以及如何在最樸素的意義上保持機器人“合乎道德”的持續且備受爭議的問題。

本文最初發表於The Conversation。 閱讀原始文章

© .