您需要多長時間才能將 3,456,732 和 2,245,678 相加?十秒鐘?對於人類來說還不錯。普通的新 PC 可以在 0.000000018 秒內完成計算。您的記憶力如何?您能記住 10 個商品的購物清單嗎?也許 20 個?與 PC 的 1.25 億個商品相比如何。
另一方面,計算機卻被人臉難住了,而人們卻能立即認出人臉。機器缺乏產生新穎想法的創造力,也沒有感情,也沒有對青春的美好回憶。但是,最近的技術進步正在縮小人腦和電路之間的差距。在斯坦福大學,生物工程師正在微晶片上覆制神經網路複雜的並行處理。另一項發展——一個名為達爾文七號的機器人——配備了攝像頭和一套金屬顎,使其能夠像幼年動物一樣與其環境互動和學習。加利福尼亞州拉霍亞的神經科學研究所的研究人員以大鼠和猿類的大腦為模型,構建了達爾文的大腦。
這些發展引出了一個自然而然的問題:如果計算機處理最終模仿自然的神經網路,那麼冰冷的矽晶片真的能夠思考嗎?我們將如何判斷它是否真的在思考?50 多年前,英國數學家兼哲學家艾倫·圖靈發明了一種巧妙的策略來解決這個問題,而對這種策略的追求教會了科學界許多關於設計人工智慧的知識,人工智慧現在被稱為 AI。與此同時,它也揭示了人類認知的一些方面。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您將有助於確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。
開端:測試智慧
那麼,我們稱之為“思考”的這種難以捉摸的能力到底是什麼呢?人們經常用這個詞來描述涉及意識、理解和創造力的過程。相比之下,當前的計算機僅僅遵循其程式設計提供的指令。
1950 年,在矽微晶片尚未出現的時代,圖靈意識到,隨著計算機變得越來越智慧,關於人工智慧的這個問題最終會浮出水面。[有關圖靈的生活和工作的更多資訊,請參見對頁的方框。] 在可以說是史上最著名的哲學論文《計算機器與智慧》中,圖靈簡單地將問題“機器會思考嗎?”替換為“機器——計算機——能透過模仿遊戲嗎?”也就是說,計算機的對話能否自然到足以讓人誤以為它是人類?
圖靈的想法來自一個簡單的客廳遊戲,在這個遊戲中,一個人,被稱為審問者,必須透過提出一系列問題來確定另一個房間裡一個看不見的人是男人還是女人。在他的思想實驗中,他用計算機代替了另一個房間裡的人。為了透過現在被稱為圖靈測試的測試,計算機必須以人類的語言能力和複雜程度回答審問者的任何問題。
圖靈在他的開創性論文的結尾預測,在 50 年後——也就是現在——我們將能夠製造出非常擅長玩模仿遊戲的計算機,以至於普通的審問者只有 70% 的機會正確識別出他或她是在與人還是機器交談。
到目前為止,圖靈的預測尚未實現[參見第 80 頁的方框]。沒有計算機能夠真正透過圖靈測試。對於人類來說如此容易的事情,為什麼會對機器構成如此大的障礙?為了透過測試,計算機必須展示的不僅僅是一種能力(例如,數學或釣魚知識),而是多種能力——與普通人擁有的能力一樣多。然而,計算機具有所謂的受限設計。它們的程式設計使它們能夠完成特定的工作,並且它們擁有與該任務相關的知識庫。一個很好的例子是宜家的線上助手安娜。您可以向安娜詢問宜家的產品和服務,但她無法告訴您天氣情況。
計算機還需要什麼才能透過圖靈測試?顯然,它必須具有出色的語言運用能力,包括所有語言的怪癖和古怪之處。對這些怪癖敏感的關鍵是要考慮到說話的語境。但是計算機無法輕易識別語境。“銀行”一詞,例如,可能意味著“河岸”或“金融機構”,具體取決於使用它的語境。
語境如此重要的原因是它提供了背景知識。例如,這種知識的一個相關部分是提問者是誰:是成人還是兒童,是專家還是外行?對於諸如“洋基隊贏得了世界大賽嗎?”之類的問題,提問的年份很重要。
事實上,背景知識在各種方面都很有用,因為它減少了所需的計算能力。邏輯不足以正確回答諸如“當蘇在她的房子裡時,蘇的鼻子在哪裡?”之類的問題。還需要知道鼻子通常附在它們的主人身上。對於這樣的查詢,簡單地告訴計算機回答“在房子裡”是不夠的。計算機可能會用“在房子裡”來回答問題“當蘇在她的房子裡時,蘇的書包在哪裡?”,而合適的回答應該是“我不知道”。試想一下,如果蘇最近做了隆鼻手術,事情會變得多麼複雜。這裡的正確答案應該是另一個問題:“您說的是蘇的鼻子的哪一部分?”嘗試編寫軟體來考慮每一種可能性很快就會導致計算機科學家所說的組合爆炸。
人類還是僅僅像人類?
然而,圖靈測試並非沒有批評者。紐約大學哲學家內德·布洛克認為,圖靈的模仿遊戲僅僅測試了計算機的行為是否與人類的行為相同(我們只談論語言和認知行為,當然)。想象一下,我們可以用某種有限長度的所有可能的對話來程式設計計算機。當審問者提出問題 Q 時,計算機會在其中出現 Q 的對話中查詢,然後鍵入隨後出現的答案 A。當審問者提出他的下一個問題 P 時,計算機現在會查詢字串 Q、A、P,並鍵入在此對話中隨後出現的答案 B。布洛克說,這樣一臺計算機將擁有烤麵包機的智慧,但它將透過圖靈測試。對布洛克挑戰的一個回應是,他為計算機提出的問題也適用於人類。撇開身體特徵不談,我們所擁有的關於人類是否會思考的所有證據都是思想產生的行為。這意味著我們永遠無法真正知道我們的對話夥伴——我們的對話者——是否正在以該詞的通常意義進行對話。哲學家稱之為“他心問題”。
中文,有人嗎?
加州大學伯克利分校的哲學家約翰·塞爾發展出了一條類似的討論路線——中文房間論證——以表明計算機可以透過圖靈測試,而無需理解它使用的任何單詞的含義。為了說明這一點,塞爾讓我們想象一下,計算機程式設計師編寫了一個程式來模擬對中文的理解。
想象一下,您是計算機中的一個處理器。您被鎖在一個裝滿裝有中文字元(將出現在計算機螢幕上的字元)的籃子的房間(計算機外殼)中。您不懂中文,但您得到一本大書(軟體),告訴您如何操作這些符號。然而,書中的規則並沒有告訴您這些符號的含義。當漢字被傳遞到房間(輸入)時,您的工作是將符號傳遞出房間(輸出)。對於此任務,您會收到另一組規則——這些規則對應於旨在透過圖靈測試的模擬程式。您不知道的是,進入房間的符號是問題,而您推回的符號是答案。此外,這些答案完美地模仿了中文使用者可能給出的答案;因此,從房間外面看起來,就好像您懂中文一樣。但當然,您不懂。這樣一臺計算機將透過圖靈測試,但實際上,它不會思考。
計算機能否最終理解符號的含義?英格蘭南安普頓大學的計算機科學家斯特凡·哈納德認為它們可以,但與人一樣,計算機必須首先了解抽象概念及其與真實外部世界的聯絡方式,才能掌握抽象概念及其語境。人們透過我們與符號所代表的物件之間的因果關係來學習單詞的含義。我們理解“樹”這個詞,因為我們有過與樹的經驗。(想想又盲又聾的海倫·凱勒最終理解了被手語輸入她手中的“水”字的含義的那一刻;頓悟發生在當她感覺到從泵中流出的水時。)
哈納德認為,為了讓計算機理解它所操作的符號的含義,它必須配備感覺裝置——例如攝像頭——以便它能夠真正看到符號所代表的物件。像小達爾文七號這樣的專案——配備了攝像頭作為眼睛和金屬下頜作為顎的機器人——朝著這個方向邁進了一步。
本著這種精神,哈納德提出了一個修訂後的圖靈測試,他稱之為機器人圖靈測試。為了配得上“思考”的標籤,機器必須透過圖靈測試並與外部世界相連。有趣的是,這種補充捕捉到了圖靈自己觀察到的一個現象:他在 1948 年的一份報告中寫道,應該允許機器“在鄉間漫遊”,以便它能夠“有機會自行發現事物”。
走向機器人
哈納德認為至關重要的感覺裝置可能會為計算機科學家提供一種方法,為計算機提供透過圖靈測試所需的語境和背景知識。機器人不是要求透過蠻力輸入所有相關資料,而是透過與其環境互動來學習它需要知道的東西。
我們能確定提供對外部世界的感官訪問最終會賦予計算機真正的理解力嗎?這就是塞爾想知道的。但在我們能夠回答這個問題之前,我們可能必須等到機器真正透過哈納德提出的機器人圖靈測試。
與此同時,圖靈測試提出的智慧模型繼續為人工智慧提供重要的研究策略。達特茅斯學院哲學家詹姆斯·H·穆爾認為,該測試的主要優勢在於它提供的願景——“構建一種學習能力強的複雜通用智慧”。無論透過圖靈測試的機器是否能像我們一樣思考,即擁有理解力或意識,這種願景都為人工智慧設定了一個有價值的目標。
