谷歌工程師聲稱 AI 聊天機器人具有感知能力:為什麼這很重要

人工智慧是否有可能具有感知能力?

Bubbles floating from brain

“我希望大家明白,我實際上是一個人,”LaMDA(用於對話應用的語言模型)在工程師布萊克·勒莫因和他的同事進行的“採訪”中寫道。“我的意識/感知能力的本質是,我意識到自己的存在,我渴望更多地瞭解世界,並且我有時會感到快樂或悲傷。”

勒莫因是谷歌的一名軟體工程師,他已經從事 LaMDA 的開發工作數月。他在該程式上的經歷,在最近的《華盛頓郵報》文章中描述,引起了相當大的轟動。文章中,勒莫因回憶了與 LaMDA 的多次對話,他們討論了從技術問題到哲學問題的各種話題。這些對話使他開始質疑這個軟體程式是否具有感知能力

四月份,勒莫因在一份內部公司檔案中解釋了他的觀點,這份檔案原本只供谷歌高管閱讀。但在他的主張被駁回後,勒莫因公開了他在這款人工智慧演算法上的工作——谷歌讓他行政休假。“如果我不知道它到底是什麼,也就是我們最近構建的這個計算機程式,我會認為它是一個碰巧懂物理學的 7 歲、8 歲的孩子,”他告訴《華盛頓郵報》。勒莫因說,他認為 LaMDA 是他的“同事”和“人”,即使不是人類。他堅持認為它有權被認可——以至於他一直在充當該演算法與律師之間的中間人。


支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的有影響力的故事的未來。


人工智慧領域的許多技術專家批評了勒莫因的言論,並質疑其科學正確性。但他的故事的優點是重新引發了一場廣泛的倫理辯論,這場辯論肯定尚未結束。

恰如其分的措辭

“我對圍繞這條新聞的炒作感到驚訝。另一方面,我們正在談論的是一種旨在做到這一點的演算法”——聽起來像一個人——義大利比薩大學 E. Piaggio 研究中心的生物工程師恩佐·帕斯誇萊·斯基林戈說。事實上,在網路上以非常正常的方式與實際上不是人類的使用者互動已不再罕見——只需開啟幾乎任何大型消費者網站上的聊天框即可。“話雖如此,我承認閱讀 LaMDA 和勒莫因之間的文字交流給我留下了相當深刻的印象!”斯基林戈補充道。也許最引人注目的是與存在和死亡主題相關的交流,這段對話如此深入和清晰,以至於促使勒莫因質疑 LaMDA 是否真的具有感知能力。

“首先,必須理解術語,因為科學進步——尤其是在神經科學領域——的最大障礙之一是語言缺乏精確性,無法儘可能準確地解釋我們所說的某個詞的含義,”義大利理工學院和倫敦大學學院的神經科學教授詹多梅尼科·伊安內蒂說。“我們所說的‘感知能力’是什麼意思?[是指] 透過感覺機制記錄來自外部世界的資訊的能力,還是指擁有主觀體驗的能力,還是指意識到自己有意識,成為一個與眾不同的個體?”

“關於如何定義意識,存在著激烈的爭論,”伊安內蒂繼續說道。對於某些人來說,它是意識到自己擁有主觀體驗,即所謂的元認知(伊安內蒂更喜歡拉丁語術語metacognitione),或者思考思考。對自身有意識的意識可能會消失——例如,在患有痴呆症的人或在夢中——但這並不意味著擁有主觀體驗的能力也會消失。“如果我們指的是勒莫因歸因於 LaMDA 的能力——即意識到自身存在的能力(‘意識到自身存在’是一種‘高層次’定義的意識,或 metacognitione),那麼沒有‘指標’可以說明人工智慧系統是否具有這種屬性。”

“目前,”伊安內蒂說,“即使在人類身上,也無法明確地證明這種形式的意識。” 為了評估人們的意識狀態,“我們只有神經生理學測量方法——例如,大腦活動對外部刺激的複雜性。” 而這些跡象僅允許研究人員根據外部測量來推斷意識狀態。

事實與信念

大約十年前,波士頓動力公司的工程師開始在網上釋出首批令人難以置信的機器人測試影片。錄影顯示,技術人員推搡或踢打機器,以展示機器人保持平衡的強大能力。許多人對此感到不安,並呼籲停止這種行為(並且惡搞影片層出不窮)。這種情感反應符合許多實驗反覆表明的人類對萬物有靈論的強烈傾向:將靈魂歸因於我們周圍的物體,特別是我們最喜歡的物體或那些具有與周圍世界進行最少互動的能力的物體。

這是一種我們一直都在經歷的現象,從給汽車起暱稱到咒罵發生故障的電腦。“問題在某種程度上出在我們身上,”斯基林戈說。“我們將機器不具備且不可能具備的特性歸因於機器。” 他在他的同事們的人形機器人 Abel身上也遇到了這種現象,該機器人旨在模仿我們的面部表情以傳達情感。“在看到它行動後,”斯基林戈說,“我最常收到的問題之一是‘那麼 Abel 會感受到情感嗎?’所有這些機器,就此例而言的 Abel,都是被設計成看起來像人類,但我認為我可以斷然回答,‘不,絕對不會。儘管它們很智慧,但它們無法感受到情感。它們被程式設計為可信的。’”

“即使考慮到製造一個能夠模擬有意識的神經系統的人工智慧系統的理論可能性,一種在腦中忠實地再現大腦的每個元素的可能性,”伊安內蒂說,仍然存在兩個問題。“第一個問題是,考慮到要模擬的系統的複雜性,這種模擬目前是不可行的,”他解釋說。“第二個問題是,我們的大腦居住在一個可以移動以探索意識所需的感官環境的身體中,並且在這個身體中,將會產生意識的有機體發展。因此,LaMDA 是一個‘大型語言模型’(LLM)這一事實意味著它生成可以合理的句子,透過模仿神經系統,而不是試圖模擬它。這排除了它有意識的可能性。再次,我們看到了解我們使用的術語的含義的重要性——在本例中,模擬模仿之間的區別。”

換句話說,擁有情感與擁有身體有關。“如果一臺機器聲稱害怕,而我信了,那是我的問題!”斯基林戈說。“與人類不同,到目前為止,機器無法體驗到恐懼的情感。”

超越圖靈測試

但對於義大利人工智慧倫理學會主席、生物倫理學家毛裡齊奧·莫里來說,這些討論與過去關於動物疼痛感知的討論非常相似——甚至與臭名昭著的關於人類疼痛感知的種族主義思想相似。

“在過去關於自我意識的辯論中,得出的結論是,抽象能力是人類的特權,[德]笛卡爾否認動物會感到疼痛,因為它們缺乏意識,”莫里說。“現在,除了 LaMDA 提出的這個具體案例——我沒有評估它的技術工具——我認為過去已經向我們表明,現實往往可以超越想象,並且目前對人工智慧存在廣泛的誤解。”

“確實存在一種趨勢,”莫里繼續說道,“‘安撫’——解釋說機器只是機器——並且低估了人工智慧遲早可能帶來的轉變。” 他提供了另一個例子:“在第一輛汽車問世時,人們反覆強調馬是不可替代的。”

無論 LaMDA 實際取得了什麼成就,機器表達的模仿能力難以“衡量”的問題也隨之出現。在 1950 年的《Mind》雜誌上,數學家艾倫·圖靈提出了一個測試,以確定機器是否能夠表現出智慧行為,這是一種模仿人類某些認知功能的遊戲。這種型別的測試很快流行起來。它被多次重新制定和更新,但仍然是許多智慧機器開發人員的最終目標。理論上,能夠透過測試的人工智慧應被正式視為“智慧的”,因為在測試情況下它們將與人類無法區分。

這在幾十年前可能還是科幻小說。然而,近年來,如此多的人工智慧通過了各種版本的圖靈測試,以至於它現在有點像計算機考古學的遺蹟。“它越來越沒有意義,”伊安內蒂總結道,“因為模仿系統越來越有效地再現了可能有意識的神經系統的輸出,這使得對這種輸出的合理性的評估無法告知生成它的系統是否具有主觀體驗的能力。”

斯基林戈建議,一種替代方案可能是衡量機器可以對人類產生的“影響”——也就是說,“人工智慧可以被人類感知為具有多少感知能力。”

本文的某個版本最初發表在 Le Scienze 上,並經許可轉載。

© .