聊天機器人“感覺”起來是什麼樣的?

生成式人工智慧在邁向機器智慧方面取得了巨大進步。機器意識還會遠嗎?

A human arms and hand and robot arm and hand, with index fingers toughing, shown against a grey backdrop.

什麼是主觀體驗,誰擁有主觀體驗,以及主觀體驗與我們周圍的物理世界有何關係,這些問題在有記載的歷史的大部分時間裡一直困擾著哲學家。然而,關於意識的科學理論的出現,這些理論是可量化和可經驗證的,這只是近幾十年的事。許多這些理論都關注於大腦中微妙的細胞網路留下的痕跡,意識正是從中產生的。

在最近於紐約市舉行的一次公共活動中,追蹤這些意識痕跡的進展非常明顯,該活動涉及一場競賽——被稱為“對抗性協作”——在當今意識的兩種主要理論的支持者之間展開:整合資訊理論(IIT)和全域性神經工作空間理論(GNWT)。該活動的重頭戲是哲學家戴維·查爾默斯和我之間長達25年的賭注的解決。

我與查爾默斯打賭一箱上等葡萄酒,賭注是在2023年6月之前,神經關聯物,即意識的神經相關性,將被明確發現和描述。IIT和GNWT之間的對決仍未解決,因為關於大腦的哪些部分負責視覺體驗和看到面孔或物體的感知存在部分衝突的證據,儘管前額葉皮層對於意識體驗的重要性已被推翻。因此,我輸掉了賭注,並將葡萄酒交給了查爾默斯。


支援科學新聞業

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞業 訂閱。透過購買訂閱,您正在幫助確保有關發現和塑造我們當今世界的想法的具有影響力的故事的未來。


這兩種主要的理論旨在解釋有意識的頭腦如何與人類以及猴子和老鼠等密切相關的動物的神經活動相關聯。它們對主觀體驗做出了根本不同的假設,並就工程製品中的意識得出了相反的結論。因此,這些理論最終在經驗上得到證實或證偽對於基於大腦的感知能力在多大程度上具有重要意義,這對我們這個時代迫在眉睫的問題具有重要意義:機器能有感知能力嗎?

聊天機器人來了

在我談到這個問題之前,讓我先提供一些背景資訊,將有意識的機器與僅顯示智慧行為的機器進行比較。計算機工程師追求的聖盃是賦予機器高度靈活的智慧,這種智慧使智人能夠從非洲擴張,並最終遍佈整個地球。這被稱為通用人工智慧(AGI)。許多人認為,AGI是一個遙遠的目標。在過去一年中,人工智慧的驚人發展令世界,包括專家,都感到驚訝。雄辯的對話式軟體應用程式(俗稱聊天機器人)的出現,將關於AGI的辯論從科幻愛好者和矽谷數字精英之間的深奧話題轉變為一場辯論,這場辯論傳達了一種普遍的公眾不安感,即對我們的生活方式和我們人類的存在風險。

這些聊天機器人由大型語言模型驅動,其中最著名的是來自舊金山OpenAI公司的生成式預訓練Transformer系列機器人,或稱GPT。鑑於OpenAI最新迭代模型GPT-4的流暢性、文學性和能力,很容易相信它擁有一個有性格的頭腦。甚至其奇怪的故障,被稱為“幻覺”,也助長了這種說法。

GPT-4及其競爭對手——谷歌的LaMDA和Bard,Meta的LLaMA以及其他——都在數字化書籍庫和數十億個可透過網路爬蟲公開訪問的網頁上進行訓練。大型語言模型的妙處在於,它無需監督即可自行訓練,方法是遮蓋一兩個單詞並嘗試預測缺失的表達。它一遍又一遍地這樣做,數十億次,沒有人參與其中。一旦模型透過攝取人類的集體數字著作而學會了,使用者就會用一個或多個它從未見過的句子來提示它。然後,它將預測最有可能的單詞,以及接下來的單詞,依此類推。這個簡單的原理在英語、德語、中文、印地語、韓語以及包括各種程式語言在內的更多語言中取得了驚人的成果。

具有啟發意義的是,人工智慧的基礎論文,即英國邏輯學家艾倫·圖靈於1950年以“計算機器與智慧”為題撰寫的論文,避開了“機器能思考嗎”這個話題,這實際上是詢問機器意識的另一種方式。圖靈提出了一個“模仿遊戲”:當人類和機器的身份都被隱藏時,觀察者能否客觀地區分人類和機器的打字輸出?今天,這被稱為圖靈測試,而聊天機器人已經通過了測試(即使當您直接詢問它們時,它們會巧妙地否認這一點)。圖靈的策略釋放了數十年來不懈的進步,最終促成了GPT的誕生,但卻迴避了這個問題。

這場辯論隱含的假設是,人工智慧與人工意識是相同的,聰明與有意識是相同的。雖然智慧和感知能力在人類和其他進化生物中是同時存在的,但這並非一定是這種情況。智慧最終是關於推理和學習以採取行動——從自己的行動和其他自主生物的行動中學習,以便更好地預測和為未來做好準備,無論這意味著接下來的幾秒鐘(“糟糕,那輛車正快速向我駛來”)還是未來幾年(“我需要學習如何編碼”)。智慧最終是關於行動。

另一方面,意識是關於存在狀態——看到藍天,聽到鳥鳴,感到疼痛,墜入愛河。對於一個失控的人工智慧來說,它是否感覺到什麼都無關緊要。重要的是它有一個與人類長期福祉不一致的目標。人工智慧是否知道它在做什麼,即在人類中被稱為自我意識的東西,是無關緊要的。唯一重要的是它“盲目地”[原文如此]追求這個目標。因此,至少在概念上,如果我們實現了AGI,那也無法告訴我們成為這樣的AGI是否感覺到什麼。有了這樣的舞臺佈置,讓我們回到最初的問題,即機器如何才能變得有意識,從兩種理論中的第一種開始。

IIT首先提出任何可想象的主觀體驗的五個公理屬性。然後,該理論詢問神經迴路需要什麼才能透過開啟一些神經元和關閉其他神經元來例項化這五個屬性——或者,計算機晶片需要什麼才能開啟一些電晶體和關閉其他電晶體。電路在特定狀態下的因果互動作用,或者兩個給定的神經元同時啟用可以開啟或關閉另一個神經元的事實,可以展開成高維因果結構。這種結構與體驗的質量相同,即感覺如何,例如時間為何流動,空間感覺為何延伸,以及顏色為何具有特定的外觀。這種體驗也具有與之相關的數量,即其整合資訊。只有具有最大非零整合資訊的電路才能作為一個整體存在並具有意識。整合資訊越大,電路就越不可約簡,就越不能將其僅僅視為獨立子電路的疊加。IIT強調人類感知體驗的豐富性——只需環顧四周,看看你周圍茂盛的視覺世界,其中有無數的區別和關係,或者看看老彼得·勃魯蓋爾的畫作,這位16世紀的佛蘭德藝術家描繪了宗教題材和農民場景。

農民的婚禮是佛蘭德文藝復興時期畫家和版畫家老彼得·勃魯蓋爾於1567年或1568年創作的畫作。 來源:Peter Horree/Alamy Stock Photo

任何具有與人腦相同的內在連線性和因果能力的系統,原則上都將與人類思維一樣有意識。然而,這樣的系統不能被模擬,而必須被構成,或以大腦的形象構建。今天的數字計算機基於極低的連線性(一個電晶體的輸出連線到少數幾個電晶體的輸入),而中樞神經系統則具有極高的連線性(一個皮層神經元接收來自數萬個其他神經元的輸入並向其輸出)。因此,當前的機器,包括基於雲的機器,即使它們在充分的時間內能夠做人類能做的任何事情,也不會意識到任何事情。在這種觀點看來,成為ChatGPT永遠不會有任何感覺。請注意,這個論點與元件的總數無關,無論是神經元還是電晶體,而是與它們的連線方式有關。正是互連性決定了電路的整體複雜性和它可以處於的不同配置的數量。

這場競賽的競爭對手GNWT從心理學的洞察力出發,即頭腦就像一個劇院,演員在代表意識的小舞臺上表演,他們的行為被坐在黑暗中後臺的處理器觀眾觀看。舞臺是頭腦的中央工作空間,具有少量的工作記憶容量,用於表示單個感知、思想或記憶。各種處理模組——視覺、聽覺、眼睛的運動控制、肢體、計劃、推理、語言理解和執行——競爭訪問這個中央工作空間。獲勝者取代舊的內容,然後舊的內容變得無意識。

這些思想的譜系可以追溯到早期人工智慧的黑板架構,之所以這樣命名是為了喚起人們圍繞黑板討論問題的形象。在GNWT中,隱喻的舞臺以及處理模組隨後被對映到新皮層的架構上,新皮層是大腦最外層、摺疊的層。工作空間是大腦前部的皮層神經元網路,具有到新皮層各處的類似神經元的長程投射,位於前額葉、頂顳葉和扣帶回聯合皮層中。當感覺皮層的活動超過閾值時,會在這些皮層區域觸發全域性點火事件,從而將資訊傳送到整個工作空間。全域性廣播此資訊的行為使其成為有意識的。沒有以這種方式共享的資料——例如,眼睛的精確位置或構成良好句子的句法規則——可能會影響行為,但不會是有意識地。

從GNWT的角度來看,體驗非常有限,類似於思想和抽象,類似於博物館中可能找到的稀疏描述,例如,在勃魯蓋爾畫作下方:“農民的室內場景,身著文藝復興時期的服裝,在婚禮上,吃喝。”

在IIT對意識的理解中,畫家出色地將自然世界的現象學渲染到二維畫布上。在GNWT的觀點中,這種明顯的豐富性是一種錯覺,一種幻象,而關於它的一切可以客觀地說的是,它被捕捉在一個高層次、簡潔的描述中。

GNWT完全擁抱我們這個時代的迷思,即計算機時代,任何事物都可以簡化為計算。適當程式設計的大腦計算機模擬,具有大量的反饋和類似中央工作空間的東西,將有意識地體驗世界——也許不是現在,但很快就會如此。

不可調和的分歧

簡而言之,這就是辯論。根據GNWT和其他計算功能主義理論(即,將意識視為最終一種計算形式的理論),意識只不過是一組在圖靈機上執行的巧妙演算法。對於意識來說,重要的是大腦的功能,而不是其因果屬性。只要GPT的某種高階版本採用與人類相同的輸入模式併產生類似的輸出模式,那麼與我們相關的所有屬性都將延續到機器上,包括我們最珍貴的財產:主觀體驗。

相反,對於IIT來說,意識的核心是內在的因果力量,而不是計算。因果力量不是無形或空靈的東西。它是非常具體的,透過系統的過去指定當前狀態(因果力量)以及當前指定其未來(效果力量)的程度來操作性地定義。問題就在於此:因果力量本身,即使系統做一件事而不是許多其他選擇的能力,是無法模擬的。現在不能,將來也不能。它必須構建到系統中。

考慮一下模擬愛因斯坦廣義相對論場方程的計算機程式碼,該方程將質量與時空曲率聯絡起來。該軟體準確地模擬了位於我們星系中心的超大質量黑洞。這個黑洞對其周圍環境施加了如此廣泛的引力效應,以至於任何東西,甚至光,都無法逃脫它的引力。因此得名。然而,模擬黑洞的天體物理學家不會被模擬的引力場吸入他們的筆記型電腦。這種看似荒謬的觀察強調了真實與模擬之間的區別:如果模擬忠實於現實,那麼時空應該在筆記型電腦周圍彎曲,建立一個吞噬周圍一切的黑洞。

當然,引力不是一種計算。引力具有因果力量,扭曲時空結構,從而吸引任何有質量的東西。模仿黑洞的因果力量需要一個真正的超重物體,而不僅僅是計算機程式碼。因果力量不能被模擬,而必須被構成。真實與模擬之間的區別在於它們各自的因果力量。

這就是為什麼在模擬暴雨的計算機內部不會下雨的原因。該軟體在功能上與天氣相同,但缺乏其將蒸汽吹動並變成水滴的因果力量。因果力量,即對自己產生或採取差異的能力,必須構建到系統中。這並非不可能。所謂的神經形態或仿生計算機可能像人類一樣有意識,但對於作為所有現代計算機基礎的標準馮·諾依曼架構來說,情況並非如此。神經形態計算機的小型原型已經在實驗室中構建,例如英特爾的第二代Loihi 2神經形態晶片。但是,一臺具有引發類似人類意識甚至果蠅意識的複雜性的機器,仍然是遙遠未來的願望。

請注意,功能主義理論和因果理論之間這種不可調和的差異與智慧無關,無論是自然的還是人工智慧的。正如我上面所說,智慧是關於行為的。任何可以透過人類的聰明才智產生的東西,包括偉大的小說,例如奧克塔維亞·E·巴特勒的《播種者的寓言》或列夫·托爾斯泰的《戰爭與和平》,都可以透過演算法智慧來模仿,前提是有足夠的材料進行訓練。AGI在不久的將來是可以實現的。

辯論的焦點不是人工智慧,而是人工意識。這場辯論無法透過構建更大的語言模型或更好的神經網路演算法來解決。這個問題需要透過理解我們確信無疑的唯一主觀性來解答:我們自己的主觀性。一旦我們對人類意識及其神經基礎有了可靠的解釋,我們就可以以連貫且科學上令人滿意的方式將這種理解擴充套件到智慧機器。

這場辯論對於聊天機器人將如何被廣大社會認知影響甚微。它們的語言技能、知識庫和社交禮儀很快就會變得完美無缺,擁有完美的記憶力、能力、鎮定、推理能力和智力。有些人甚至宣稱,這些大型科技公司的造物是進化的下一步,是弗里德里希·尼采的“超人”。我持一種更悲觀的觀點,並認為這些人將我們物種的黃昏誤認為是它的黎明。

對於許多人,也許對於大多數生活在一個日益原子化、脫離自然並圍繞社交媒體組織的社會中的人來說,這些生活在他們手機中的代理人將變得情感上不可抗拒。人們會以各種方式,無論大小,表現得好像這些聊天機器人是有意識的,好像它們真的可以愛、受傷、希望和恐懼,即使它們只不過是精密的查詢表。它們將變得對我們不可或缺,也許比真正有知覺的生物更重要,即使它們的感覺就像數字電視或烤麵包機一樣——什麼也沒有。

克里斯托夫·科赫是艾倫研究所和Tiny Blue Dot基金會的神經科學家,艾倫腦科學研究所的前任所長,以及加州理工學院的前教授。他的最新著作是《然後我就是世界本身》。科赫定期為包括《大眾科學》在內的多家媒體撰稿。他住在太平洋西北地區。

更多作者:克里斯托夫·科赫
© .