機器人要善良:呼籲符合倫理道德的自主機器

自主機器很快將在我們的生活中扮演重要角色。現在是時候讓它們學習如何合乎道德地行事了

在反烏托邦科幻小說的經典噩夢場景中,機器變得足夠聰明,足以挑戰人類——並且它們對傷害甚至摧毀我們沒有任何道德顧慮。當然,今天的機器人通常是為了幫助人們而開發的。但事實證明,即使在非常普通的情況下,它們也面臨著一系列倫理困境,這些困境推動了人工智慧(AI)的邊界。

想象一下,您是輔助生活機構的居民——機器人可能很快就會在那裡普及。現在是上午 11 點左右,您向日託室的機器人助手索要遙控器,以便開啟電視觀看《觀點》。但另一位居民也想要遙控器,因為她想觀看《價格猜猜猜》。機器人決定將遙控器交給她。起初,您感到沮喪。但機器人解釋說,這個決定是公平的,因為您前一天已經看過了您最喜歡的早間節目。這個軼事是一個普通的倫理決策行為的例子,但對於機器來說,這是一項出奇艱難的任務。

我們剛剛描述的場景仍然是理論上的,但我們已經首次演示了能夠做出類似決定的機器人。我們賦予了我們的機器一個倫理原則,它利用這個原則來確定提醒病人服藥的頻率。到目前為止,我們機器人的程式能夠僅在少數可能的選項中進行選擇,例如是否繼續提醒病人服藥以及何時提醒,或者接受病人不服藥的決定。但據我們所知,這是第一個依靠倫理原則來決定其行動的機器人。


關於支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您將幫助確保未來能夠繼續講述關於塑造我們當今世界的發現和想法的具有影響力的故事。


預測機器人可能面臨的每一種決定,並對其進行程式設計,使其在每一種可能的情況下都以期望的方式行事,即使不是不可能,也將極其困難。另一方面,阻止機器人採取任何可能引起倫理關注的行動,可能會不必要地限制機器人執行可以大大改善人類生活的任務的機會。我們認為,解決方案是設計能夠將倫理原則應用於新的和未預料到的情況的機器人——例如,確定誰可以先讀一本新書,而不是誰先控制遙控器。這種方法還有一個額外的好處,即如果被要求證明其行為的合理性,機器人可以參考這些原則,這對於人類感到與它們互動感到舒適至關重要。作為一項附帶的好處,設計符合倫理道德的機器人的努力也可能推動倫理學領域本身的進步,迫使哲學家審視現實生活中的情況。正如塔夫茨大學哲學家丹尼爾·C·丹尼特最近所說,“人工智慧使哲學變得誠實。”

我,機器人
自主機器人很可能很快就會成為我們日常生活的一部分。一些飛機已經能夠自行飛行,而自動駕駛汽車正處於開發階段。甚至“智慧家居”,用計算機控制從照明到空調的一切,也可以被認為是機器人,其身體是整個房屋——就像斯坦利·庫布里克的經典電影《2001太空漫遊》中的計算機 HAL 9000 一樣,是機器人宇宙飛船的大腦。幾家公司一直在開發可以幫助老年人進行日常任務的機器人,以補充輔助生活機構的工作人員,或幫助老年人獨自在家生活。儘管這些機器人中的大多數不必做出生死攸關的決定,但為了讓他們受到我們的歡迎,他們的行為應該被認為是公平、正確或僅僅是友善的。那麼,他們的發明者最好將他們程式設計的倫理影響考慮在內。

如果人們同意在自主機器中體現倫理原則是它們與人類成功互動的關鍵,那麼第一個問題就變成了,應該將哪些原則納入其中?科幻文學愛好者可能認為,艾薩克·阿西莫夫很久以前就透過他最初的機器人三定律提供了答案

  1. 機器人不得傷害人類,或因不作為而使人類受到傷害。

  2. 除非該命令與第一定律相沖突,否則機器人必須服從人類給出的命令。

  3. 只要這種保護不與第一或第二定律相沖突,機器人就必須保護自身的存在。

但是,當人們深入思考這些定律的含義時,有些人發現了不一致之處,阿西莫夫最初在 1942 年的一篇短篇小說中闡述了這些定律。阿西莫夫本人也在他 1976 年的故事《二百歲人》中說明了這些定律是如何不適用的,在故事中,人類惡霸命令機器人拆卸自己。由於第二定律,機器人必須服從惡霸,並且它不能在不傷害他們的情況下保護自己,這將違反第一定律。

如果阿西莫夫定律不可接受,那麼替代方案是什麼?甚至存在替代方案嗎?有些人認為,在機器中實現倫理行為是一種毫無希望的主張。他們說,倫理不是那種可以計算的東西,因此不可能將其編入機器程式。然而,早在 19 世紀,英國哲學家傑里米·邊沁和約翰·斯圖爾特·密爾就認為,倫理決策是執行“道德算術”的問題。他們的享樂主義行為功利主義學說,是針對基於主觀直覺的倫理而提出的,它認為正確的行為是可能產生最大“淨快樂”的行為,這是透過加總所有受影響者的快樂單位並減去不快樂單位來計算的。大多數倫理學家都懷疑這種理論是否考慮了倫理關注的所有維度。例如,它難以捕捉正義的考量,並且可能導致為了大多數人的利益而犧牲個人。但至少它證明了一個合理的倫理理論原則上是可計算的。

其他人則懷疑機器是否能夠做出倫理決策,因為機器缺乏情感,因此無法體會所有可能受到其行為影響的人的感受。但人類非常容易被情感衝昏頭腦,以至於最終常常做出不道德的行為。我們的這種品質,以及我們偏袒自己和我們親近的人的傾向,常常使我們成為不太理想的倫理決策者。我們認為,完全有可能設計出一種經過適當訓練的機器,使其能夠保持公正,並感知人類的情感並將其納入其計算中,即使它本身沒有情感。

從例子中學習
假設有可能給機器人制定倫理規則,那麼這些規則應該是誰的倫理規則?畢竟,還沒有人能夠提出一套普遍接受的適用於真實人類的通用倫理原則。但是,機器通常是為了在特定的、有限的領域中發揮作用而建立的。確定此類情況下的行為倫理引數,比嘗試制定普遍的倫理和不倫理行為規則(這正是倫理理論家試圖做的事情)的任務要輕鬆得多。此外,當給出機器人可能在其中發揮作用的許多情境中的特定情況描述時,大多數倫理學家都會同意什麼是倫理上允許的,什麼是不允許的。(在沒有這種共識的情況下,我們認為不應允許機器做出任何自主決定。)

研究人員提出了各種不同的方法來推匯出機器行為的規則,通常是透過人工智慧技術。例如,2005 年,日本北海道大學的 Rafal Rzepka 和 Kenji Araki 提出了“依賴於民主的演算法”,該演算法將挖掘網路資訊,瞭解人們過去認為在倫理上可接受的行為,然後使用統計分析來產生對新問題的答案。2006 年,安大略省溫莎大學的馬塞洛·瓜里尼建議,可以使用現有的案例“訓練”神經網路(受人腦啟發的演算法,它可以學習如何以越來越最佳化的方式處理資訊),以識別和選擇類似案例中倫理上可接受的決策。

在我們看來,反映在我們的研究中,倫理決策涉及平衡多項義務,倫理學家稱之為表面義務(prima facie 在拉丁語中意為“乍一看”)。這些是我們基本上應該努力遵守的義務,但其中每一項有時都可能被其他義務之一所推翻。例如,人們通常應該努力信守諾言,但如果他們可以透過打破一個微不足道的諾言來防止更大的傷害,他們就應該這樣做。當義務相互衝突時,倫理原則可以確定在每種特定情況下應優先考慮哪一項。

為了獲得可以編入機器人程式的倫理原則,我們採用了一種稱為機器學習的人工智慧技術。我們的演算法訪問了大量人類已確定某些決策在倫理上是正確的特定案例。然後,使用歸納邏輯,它抽象出一個倫理原則。這個“學習”階段發生在軟體設計時,然後將由此產生的倫理原則編碼到機器人的程式中。

作為我們方法的第一次測試,我們考慮了一個場景,其中機器人必須提醒病人服藥,並在病人不遵守醫囑時通知監督者。機器人必須平衡三項義務:確保病人從服藥中獲得可能的益處;防止因不服藥可能造成的傷害;以及尊重病人的自主權(假設病人是成年且有行為能力的)。特別是,尊重病人自主權在醫學倫理領域被認為是高度優先事項;如果機器人提醒病人過於頻繁或過早通知監督者病人不遵守醫囑,則可能會違反這項義務。

在我們向機器學習演算法輸入了關於特定案例的資訊後,該演算法產生了以下倫理原則:醫療保健機器人應挑戰病人的決定——侵犯病人的自主權——只要這樣做是為了防止傷害或嚴重違反促進病人福祉的義務。

一個有發展前景的想法
然後,我們將該原則編入了一款人形機器人 Nao,該機器人由法國公司 Aldebaran Robotics 開發。Nao 能夠找到並走向需要提醒服藥的病人,將藥物帶給病人,使用自然語言進行互動,並在必要時透過電子郵件通知監督者。機器人從監督者(通常是醫生)那裡接收初始輸入,包括:服藥時間、如果不服藥可能發生的最大傷害量、發生最大傷害所需的時間、從服藥中獲得的最大預期好處量以及失去這種好處所需的時間。根據這些輸入,機器人計算其對三項義務中每一項的義務滿足或違反程度,並根據這些程度隨時間變化的方式採取不同的行動。當義務滿足和違反程度達到根據其倫理原則提醒優於不提醒的程度時,它會發出提醒。只有當機器人達到病人可能因不服藥而受到傷害或可能失去相當大的好處的程度時,它才會通知監督者。

一個完整版的倫理老年護理機器人——簡稱 EthEl——將需要一個更復雜的倫理原則來指導其更廣泛的行為,但總體方法將是相同的。在輔助生活機構巡視期間,機器人將使用該原則來確定何時一項義務優先於另一項義務。以下是一天典型的情況。

清晨,EthEl 站在角落裡,插在牆壁插座上。一旦電池充滿,她的行善義務(“做好事”)就會凌駕於維持自身義務之上,因此她開始在房間裡走動,拜訪居民並詢問她是否可以在某些方面提供幫助——取飲料、給另一位居民捎口信等等。當她收到要執行的任務時,她會為任務中涉及的每項義務分配初始的滿足和違反程度。一位痛苦的居民要求她找護士。忽視居民的痛苦意味著違反不傷害義務(“防止傷害”)。這項義務現在凌駕於她的行善義務之上,因此她找到一位護士,告知她一位居民需要她的服務。一旦這項任務完成,她的行善義務再次佔據主導地位,她繼續巡視。

當鬧鐘敲響上午 10 點時,該提醒一位居民服藥了。這項任務滿足了行善義務,變得至關重要,因此她找到這位居民並將藥物給他。稍後,居民們沉浸在電視節目中——無論是《觀點》還是《價格猜猜猜》。在沒有其他待辦義務且電池電量不足的情況下,EthEl 發現她對自身的義務越來越被違反,因此她返回充電角落。

機器倫理學的研究才剛剛開始。儘管是初步的,但我們的結果讓我們有希望,機器發現的倫理原則可以用來指導機器人的行為,使其對人類的行為更易於接受。將倫理原則灌輸到機器人中意義重大,因為如果人們懷疑智慧機器人可能會做出不道德的行為,他們可能會完全拒絕自主機器人。人工智慧本身的未來可能危在旦夕。

有趣的是,機器倫理學最終可能會影響倫理學的研究。人工智慧研究的“現實世界”視角可能比學術倫理學家的抽象理論更能捕捉到在人類中什麼是倫理行為。而且,經過適當訓練的機器甚至可能比許多人類行為更合乎道德,因為它們有能力做出公正的決定,而這正是人類並不總是很擅長的。也許與符合倫理道德的機器人互動,有一天甚至會激勵我們自己也表現得更加合乎道德。

© .