有人在家嗎?一種找出人工智慧是否已變得有自我意識的方法

這不容易,但一項新提出的測試可能能夠檢測機器中的意識

加入我們的科學愛好者社群!

本文發表於《大眾科學》的前部落格網路,反映了作者的觀點,不一定反映《大眾科學》的觀點


在你醒著的每一刻,以及每當你做夢時,你都有自己是“你”的清晰內在感覺。當你看到日出的溫暖色調,聞到早晨咖啡的香氣,或仔細思考一個新想法時,你正在進行有意識的體驗。但是,人工智慧(AI)有可能像《西部世界》中描繪的一些機器人或《銀翼殺手》中的合成生物一樣,擁有體驗嗎?

這個問題並非牽強附會。目前正在開發機器人,以便在核反應堆內部工作、參與戰爭和照顧老人。隨著人工智慧變得越來越複雜,預計在未來幾十年內,它們將接管許多人類工作。因此,我們必須思考這個問題:人工智慧會發展出有意識的體驗嗎?

這個問題之所以緊迫,有幾個原因。首先,倫理學家擔心,如果人工智慧能夠遭受痛苦並感受到一系列情緒,那麼強迫人工智慧為我們服務將是不對的。其次,意識可能會使人工智慧變得不穩定或不可預測,從而引發安全擔憂(或者相反,它可能會增加人工智慧的同理心;基於自身的主觀體驗,它可能會認識到我們身上的意識,並富有同情心地對待我們)。


支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續講述關於塑造我們當今世界的發現和思想的有影響力的故事。


第三,機器意識可能會影響腦植入技術的可行性,例如埃隆·馬斯克的新公司 Neuralink 即將開發的技術。如果人工智慧不能有意識,那麼負責意識的大腦部分就不能用晶片替換而不會導致意識喪失。而且,類似地,一個人無法將他們的大腦上傳到計算機以避免死亡,因為上傳的內容不會是一個有意識的存在。

此外,如果人工智慧最終在智力上超越我們,但缺乏意識,那麼仍然會有一種重要的意義,即我們人類優於機器;成為我們感覺起來是某種東西。但地球上最聰明的生物將不會是有意識或有知覺的。

機器意識的問題至關重要。然而,神經科學家遠未理解大腦中意識的基礎,哲學家們也同樣遠未對意識的本質做出完整的解釋。

那麼可以做些什麼呢?我們認為,我們不需要正式定義意識,理解其哲學本質或瞭解其神經基礎,就能識別出人工智慧中意識的跡象。我們每個人都可以透過內省來掌握關於意識的本質;我們都可以從內在體驗到存在的感覺。

基於意識的這個本質特徵,我們提出了一種機器意識測試,即人工智慧意識測試(ACT),它著眼於我們創造的合成思維是否對從內在感受到意識的方式具有基於經驗的理解。

儘管通常不被注意到,但正常運作的人類體驗意識的最引人注目的跡象之一是,幾乎每個成年人都可以快速容易地掌握基於這種感受到的意識質量的概念。這些想法包括像身體互換心靈(如電影《怪誕星期五》中那樣)的場景;死後的生活(包括輪迴);以及心靈離開“他們”的身體(例如,星體投射或鬼魂)。無論這些場景是否具有任何現實意義,對於一個完全沒有意識體驗的實體來說,理解起來都將極其困難。這就像期望一個從出生就完全失聰的人欣賞巴赫協奏曲一樣。

因此,ACT 將透過一系列日益苛刻的自然語言互動來挑戰人工智慧,以瞭解它快速容易地掌握和使用基於我們與意識相關的內在體驗的概念和場景的能力。在最基本的層面上,我們可能只是簡單地詢問機器是否認為自己除了物理自我之外還有其他東西。在更高階的層面上,我們可能會看看它是如何處理上一段中提到的想法和場景的。在高階層面上,將評估其推理和討論諸如“意識的難題”等哲學問題的能力。在最苛刻的層面上,我們可能會看看機器是否在沒有依賴人類的想法和輸入的情況下,自行發明和使用這種基於意識的概念。

考慮以下例子,它說明了這個想法:假設我們發現一個星球,上面有一種高度複雜的矽基生命形式(稱它們為“Zetas”)。科學家觀察它們並思考它們是否是有意識的生物。什麼會是這個物種意識的令人信服的證據?如果 Zetas 表達了對是否存在來世的好奇,或者思考它們是否不僅僅是它們的肉體,那麼將它們判斷為有意識的是合理的。如果 Zetas 進一步提出關於意識的哲學問題,那麼情況將更加有力。還有一些非語言行為可以表明 Zeta 的意識,例如哀悼死者、宗教活動,甚至在與情緒挑戰相關的環境中改變顏色,就像地球上的色素細胞所做的那樣。這些行為可能表明,成為 Zeta 是一種感覺。

斯坦利·庫布里克2001太空漫遊中虛構的 HAL 9000 人工智慧計算機的思維死亡提供了另一個說明性例子。在這種情況下,機器不是像大多數科幻小說中描繪的有意識機器那樣的人形機器人;它既不像人類的外觀,也不像人類的聲音(人類確實提供了 HAL 的聲音,但以一種怪異的平淡方式)。然而,當宇航員停用它時,它所說內容的內容——特別是,懇求饒恕它免於迫在眉睫的“死亡”——傳達了一個強烈的印象,即它是一個有意識的生物,對正在發生的事情有主觀體驗。

這些指標可以用來識別地球上有意識的人工智慧嗎?這裡出現了一個潛在的問題。即使是今天的機器人也可以被程式設計來做出關於意識的令人信服的陳述,而一個真正的超智慧機器甚至可能使用關於神經生理學的資訊來推斷人類中意識的存在。如果複雜但無意識的人工智慧出於某種原因旨在誤導我們相信它們是有意識的,那麼它們對人類意識的瞭解可以幫助它們做到這一點。

不過,我們可以繞過這個問題。人工智慧安全中提出的一種技術涉及“將人工智慧關在籠子裡”——使其無法獲取關於世界的資訊或在劃定的領域之外行動,即“盒子”。我們可以拒絕人工智慧訪問網際網路,實際上禁止它獲得任何關於世界的知識,特別是關於意識體驗和神經科學的資訊。

有些人懷疑超智慧機器是否能夠有效地被關在籠子裡——它會找到巧妙的逃脫方法。然而,我們預計在未來十年內不會發展出超智慧。此外,為了使 ACT 有效,人工智慧不需要在盒子中停留太久,只需足夠長的時間來執行測試即可。

ACT 也可能在不同型別人工智慧的開發過程中的“意識工程”中發揮作用,幫助避免以不道德的方式使用有意識的機器,或在適當的時候創造合成意識

ACT 類似於艾倫·圖靈著名的智慧測試,因為它完全基於行為——而且,像圖靈測試一樣,它可以以形式化的問答形式實施。(ACT 也可以基於人工智慧的行為或一組人工智慧的行為。)但是 ACT 也與圖靈測試完全不同,圖靈測試旨在繞過任何瞭解機器內部發生的事情的需要。相比之下,ACT 旨在恰恰相反;它試圖揭示機器思維中微妙而難以捉摸的屬性。事實上,機器可能因為無法冒充人類而未能透過圖靈測試,但卻可以透過 ACT,因為它表現出意識的行為指標。

這是我們 ACT 提案的潛在基礎。然而,應該說,ACT 的適用性本質上是有限的。人工智慧可能缺乏透過測試的語言或概念能力,就像非人類動物或嬰兒一樣,但仍然能夠體驗。因此,透過 ACT 是人工智慧意識的充分而非必要證據——儘管這是我們目前能做的最好的。這是使機器意識能夠進行客觀調查的第一步。

那麼,回到“盒子”中的超智慧人工智慧——我們觀察並等待。它是否像笛卡爾那樣開始思考存在於身體之外的思維?它是否像艾薩克·阿西莫夫的《機器人之夢》中那樣做夢?它是否像《銀翼殺手》中的瑞秋那樣表達情感?它能否容易地理解根植於我們內在意識體驗的人類概念,例如靈魂或阿特曼的概念?

人工智慧時代將是一個靈魂探索的時代——既是我們的,也是它們的。

Susan Schneider is a professor of philosophy and cognitive science at the University of Connecticut, a researcher at YHouse, Inc., in New York, a member of the Ethics and Technology Group at Yale University and a visiting member at the Institute for Advanced Study at Princeton. Her books include The Language of Thought, Science Fiction and Philosophy, and The Blackwell Companion to Consciousness (with Max Velmans). For more of her work see: SchneiderWebsite.com.

More by Susan Schneider
About Edwin Turner

Edwin L. Turner is a professor of Astrophysical Sciences at Princeton University, an Affiliate Scientist at the Kavli Institute for the Physics and Mathematics of the Universe at the University of Tokyo, a visiting member in the Program in Interdisciplinary Studies at the Institute for Advanced Study in Princeton, and a co-founding Board of Directors member of YHouse, Inc. He has taken an active interest in artificial intelligence issues since working in the AI Lab at MIT in the early 1970s.

More by Edwin Turner
© .