在人工智慧成為熱門話題之前,計算機科學家亨利·利伯曼邀請我去麻省理工學院參觀他團隊的工作。亨利痴迷於人工智慧缺乏常識的想法。因此,他和他的同事凱瑟琳·哈瓦西和羅賓·斯皮爾一起,一直在一個網站上收集常識性陳述。
常識性陳述是對人類來說顯而易見,但機器難以理解的事實。 它們是諸如“水是溼的”或“愛是一種感覺”之類的事情。 它們也是人工智慧的一個痛點,因為學者們仍在努力理解為什麼機器在常識推理方面掙扎。 那天,亨利急於向我展示一張圖表,其中愛、水或感覺等詞是根據他們的常識語料庫中的資料組織的。 他向我展示了一個使用稱為主成分分析的技術繪製的圖,這是一種確定最能解釋任何型別數值資料變化的軸的方法。
“應用於常識知識,”他說,“這就像試圖找到一個數學答案來解答古老的哲學問題:人類知識究竟是關於什麼的?”
支援科學新聞報道
如果您喜歡這篇文章,請考慮支援我們屢獲殊榮的新聞報道,方式是 訂閱。 透過購買訂閱,您正在幫助確保有關當今塑造我們世界的發現和想法的具有影響力的故事的未來。
因此,我問他軸是什麼,他邀請我猜。
“我不知道,”我說。“大還是小? 活的還是死的?”
“不,”他回答。“好還是壞。”
事後看來,這個事實似乎很明顯。 每天我們都使用道德判斷作為認知和溝通的捷徑。 我們談論“好”和“壞”天氣。 我們尋找“更好”的工作或電腦。 我們欣賞“好”的音樂,避免“壞”的葡萄酒。 但是,雖然我們理性地理解襪子上的洞並不不道德,但我們常常忍不住濫用道德化推理的便捷捷徑。 亨利的圖表證明,普遍的道德化在我們語言中很普遍,並且這種普遍的道德化隱含在常識推理中。
今天,許多道德化並非針對錯誤的襪子,而是針對人工智慧以及創造人工智慧的人。 往往這種憤怒是合理的。 人工智慧已牽涉到錯誤逮捕、有偏見的累犯評分以及多起涉及照片分類錯誤或性別刻板印象翻譯的醜聞。 在很大程度上,人工智慧社群已經聽取了意見。 今天,人工智慧研究人員充分意識到這些問題,並正在積極努力解決這些問題。
但是,隨著塵埃落定,值得不僅要問人工智慧是“好”還是“壞”,還要問這些判斷事件教會了我們什麼關於我們的道德直覺。 畢竟,人工智慧倫理是關於我們人類的,因為我們是做出判斷的人。
在過去的幾年裡,我和我的團隊一起進行了數十項實驗,成千上萬的美國人對人類和機器的行為做出了反應。 這些實驗包括可以呈現為人類或機器行為的場景,例如挖掘機意外挖開墳墓或海嘯警報系統未能警報沿海城鎮。 這些比較使我們能夠超越人類判斷人工智慧的方式,而是專注於我們對機器的判斷與我們對人類的判斷的比較。
這種差異可能看起來很微妙,但它迫使我們在更現實的參考框架中判斷機器。 我們傾向於將人工智慧與完美進行比較,而不是將其與我們對人類執行相同操作併產生相同結果的反應進行比較。
那麼,這些實驗教會了我們什麼?
即使是最初的資料點也表明,人們對人類和機器的反應並不相同。 例如,在意外情況下,尤其是當意外造成身體傷害時,人們對機器的寬容度低於對人類的寬容度。
但是,由於我們有數千個數據點,我們可以超越軼事觀察。 因此,我們決定構建一個統計模型,解釋人們如何判斷人類和機器。 該模型預測了人們如何根據傷害和感知意圖對場景進行評分,以道德錯誤程度來衡量。
致謝:塞薩爾·A·伊達爾戈
令我們驚訝的是,該模型表明,人們不僅對人類的評判不如對機器的評判那麼嚴厲,而且我們使用了不同的道德哲學來評判他們。 附近的圖表總結了這一發現。 藍色平面顯示了人們如何平均評判其他人。 紅色平面顯示了人類如何平均評判機器。
您可以清楚地看到,這些平面不是平行的,並且紅色平面和藍色平面之間存在旋轉。 這是因為,在判斷機器時,人們似乎主要關心場景的結果。 在這種情況下,是感知到的傷害程度。 這就是為什麼紅色平面幾乎完全沿著傷害維度增長。 但是當人們評判其他人(藍色平面)時,我們發現了一個曲率。 這次,增長是沿著對角線的,代表了傷害和感知意圖之間的相互作用(技術上是兩者的乘積)。 這解釋了為什麼機器在意外情況下受到更嚴厲的評判; 人們對評判機器採取結果主義的方法,其中意圖無關緊要,但對人類則不然。
這個簡單的模型引導我們得出一個有趣的結論,一個經驗原則,支配著人們區別於人類來評判機器的方式。 一個最簡單的形式是:“人們根據意圖評判人類,根據結果評判機器。”
但是,這些實驗教會了我們什麼關於我們的道德直覺?
首先,它們教會我們,我們的道德直覺遠非固定不變。 我們可能會告訴自己我們是有原則的人,但事實是我們會根據我們評判的物件或事物做出不同的反應。 這種道德上的反覆無常超越了我們評判人類和機器的方式。
例如,人們對出於政治動機的行為的道德判斷取決於被指控犯錯的行為者是否在政治上與他們的觀點保持一致。
在一項最近的研究中,人們對看到一名學生在抗議活動中扔玻璃瓶的反應因該學生被認定為“反法西斯運動”或“愛國者運動”的成員而異。 正如您可能預期的那樣,當學生的政治身份與他們的政治身份相反時,受訪者對該學生的反應更為強烈。 然而,同一項研究也表明,當違規行為涉及非政治場景時,例如室內吸菸或酒後駕車,則未觀察到這種效應。 因此,我們出於政治動機的判斷不會促使我們不分青紅皂白地反覆無常,而只是在特定情況下才會如此。
第二個教訓是,我們的道德反覆無常可能超越簡單地偏袒一個群體而不是另一個群體。 如果人們只是偏袒人類而不是機器,那麼紅色平面和藍色平面本應是平行的。 但它們不是。 這意味著人們不僅僅是偏袒人類而不是機器。 我們對人類和機器的評判不同。 與我們評判機器的結果主義道德相比,我們對我們的人類同胞應用了更康德式或義務論的道德(關於手段而不是目標)。
但可能最重要的教訓是,我們可以透過使用旨在教導機器的技術來了解一些關於人類道德的東西。 在我們的案例中,我們透過構建一個連線道德判斷不同方面的簡單模型來做到這一點。 在亨利、凱瑟琳和羅賓的案例中,我們透過使用流行的“降維技術”瞭解了一些關於常識道德的東西。
在亨利告訴我第一個維度是“好與壞”之後,他讓我猜第二個軸是什麼。 “容易與困難,”他說。“在第一近似下,所有常識知識都與什麼是好或壞以及什麼是容易或難做有關。 其餘的只是噪音。”
