大腦透過根據一套秘密規則調整其無數連線來進行其典型任務——學習。為了揭開這些秘密,科學家們在 30 年前開始開發嘗試複製學習過程的計算機模型。現在,越來越多的實驗表明,這些模型在執行某些任務時,其行為與實際大腦驚人地相似。研究人員表示,這些相似之處表明大腦和計算機的底層學習演算法之間存在基本的對應關係。
計算機模型 Boltzmann 機使用的演算法,由 Geoffrey Hinton 和 Terry Sejnowski 於 1983 年發明,似乎特別有希望作為對許多大腦過程(包括髮育、記憶形成、物體和聲音識別以及睡眠-覺醒週期)的簡單理論解釋。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保未來關於塑造我們當今世界的發現和想法的有影響力的故事。
安大略省漢密爾頓市麥克馬斯特大學心理學、神經科學和行為學教授 Sue Becker 說:“這是我們目前真正理解大腦的最佳可能性。”“我不知道有哪個模型能夠從學習和大腦結構的角度解釋更廣泛的現象。”
人工智慧領域的先驅 Hinton 一直想了解大腦何時加強連線以及何時削弱連線的規則——簡而言之,就是我們如何學習的演算法。他說:“在我看來,如果你想了解某些東西,你就需要能夠構建一個。” 遵循物理學的還原論方法,他的計劃是構建使用各種學習演算法的大腦的簡單計算機模型,並“看看哪些有效”,Hinton 說,他同時在多倫多大學(他是計算機科學教授)和谷歌工作。
在 20 世紀 80 年代和 90 年代,Hinton(19 世紀邏輯學家喬治·布林的曾曾孫,其工作是現代計算機科學的基礎)發明或共同發明了一系列機器學習演算法。這些演算法告訴計算機如何從資料中學習,用於稱為人工神經網路的計算機模型中——人工神經網路是由相互連線的虛擬神經元組成的網路,這些神經元透過開啟和關閉或“放電”來向其鄰居傳輸訊號。當資料被輸入網路時,會引發一連串的放電活動,該演算法根據放電模式確定是否增加或減少每對神經元之間連線(或突觸)的權重。
幾十年來,Hinton 的許多計算機模型都處於停滯狀態。但由於計算能力的進步、科學家對大腦的理解以及演算法本身,神經網路在神經科學中發揮著越來越重要的作用。加利福尼亞州拉霍亞索爾克生物研究所計算神經生物學實驗室負責人 Sejnowski 說:“三十年前,我們的想法非常粗糙;現在我們開始檢驗其中的一些想法。”
大腦機器
Hinton 早期複製大腦的嘗試是有限的。計算機可以在小型神經網路上執行他的學習演算法,但擴大模型的規模很快就使處理器不堪重負。2005 年,Hinton 發現如果他將他的神經網路分成層,並一次在一層上執行演算法(這近似於大腦的結構和發育),該過程會變得更有效率。
儘管 Hinton 在兩份頂級期刊上發表了他的發現,但那時神經網路已經失寵,“他正在努力讓人們感興趣”,華盛頓州微軟研究院的首席研究員李登說。然而,鄧認識辛頓,並決定在 2009 年嘗試他的“深度學習”方法,很快就看到了它的潛力。此後,理論學習演算法已在越來越多的應用中投入實際使用,例如 Google Now 個人助理和 Microsoft Windows 手機上的語音搜尋功能。
其中最有前途的演算法之一 Boltzmann 機,以 19 世紀奧地利物理學家路德維希·玻爾茲曼的名字命名,他開發了處理大量粒子的物理學分支,稱為統計力學。玻爾茲曼發現了一個方程,給出了分子氣體在達到平衡時具有特定能量的機率。用神經元代替分子,Boltzmann 機在放電時,收斂到完全相同的方程。
網路中的突觸以隨機的權重分佈開始,並且權重根據一個非常簡單的過程逐漸調整:將機器被輸入資料(例如影像或聲音)時生成的神經放電模式與輸入關閉時發生的隨機放電活動進行比較。
每個虛擬突觸都跟蹤這兩組統計資料。如果它連線的神經元在資料驅動時比隨機放電時更頻繁地以接近的順序放電,則突觸的權重會增加與差異成正比的量。但是,如果兩個神經元在隨機放電期間比資料驅動的放電更頻繁地一起放電,則連線它們的突觸太厚,因此會被削弱。
最常用的 Boltzmann 機的版本在“訓練”時效果最佳,即一次一層地輸入數千個數據示例。首先,網路的底層接收代表畫素化影像或多音調聲音的原始資料,就像視網膜細胞一樣,神經元會在檢測到資料塊中的對比度(例如從亮到暗的切換)時放電。放電也可能觸發連線的神經元放電,具體取決於它們之間突觸的權重。隨著成對虛擬神經元的放電與背景放電統計資料反覆比較,神經元之間有意義的關係會逐漸建立和加強。突觸的權重被磨練,影像或聲音類別根深蒂固地連線在一起。每個後續層都以相同的方式訓練,使用來自下層的輸入資料。
如果將汽車的圖片輸入到經過訓練可以檢測影像中特定物體的神經網路中,則如果它檢測到對比度(這將指示邊緣或端點),則較低層會放電。這些神經元的訊號會傳遞到高層神經元,這些神經元會檢測角、車輪部件等等。在頂層,只有當影像包含汽車時才會放電的神經元。
紐約大學資料科學中心主任 Yann LeCun 說:“神奇的事情是它能夠泛化。”“如果你給它看一輛它以前從未見過的汽車,如果它與你在訓練期間給它看的所有汽車有一些共同的形狀或外觀,它就可以確定這是一輛汽車。”
由於 Hinton 的逐層訓練方案、使用稱為圖形處理單元的高速計算機晶片以及可用於訓練的影像和錄音的爆炸式增長,神經網路最近取得了長足的進步。這些網路現在可以正確識別正常人類英語對話中大約 88% 的單詞,而普通人類聽眾的識別率約為 96%。他們可以以類似的精度識別影像中的汽車和數千種其他物體,並且在過去三年中已經主導了機器學習競賽。
構建大腦
沒有人知道如何直接確定大腦的學習規則,但是大腦的行為與 Boltzmann 機的行為之間存在許多高度暗示性的相似之處。
兩者都可以在沒有其他監督的情況下學習,除了資料中自然存在的模式。“你不會得到數百萬個例子,讓你母親告訴你影像中的內容,”Hinton 說。“你必須在沒有人告訴你這些東西是什麼的情況下學習識別事物。然後在你學習了類別之後,人們會告訴你這些類別的名稱。因此,孩子們會了解狗和貓,然後他們會了解到狗被稱為“狗”,貓被稱為“貓”。”
成年大腦不如青少年大腦具有可塑性,就像用 100,000 張汽車影像訓練的 Boltzmann 機在看到另一張汽車影像後不會發生太大變化一樣:它的突觸已經具有對汽車進行分類的正確權重。然而,學習永無止境。新資訊仍然可以整合到大腦和 Boltzmann 機的結構中。
在過去 5 到 10 年裡,對睡眠期間大腦活動的研究提供了一些直接證據,表明大腦採用類似 Boltzmann 的學習演算法,以便將新資訊和記憶整合到其結構中。神經科學家早就知道睡眠在記憶鞏固中起著重要作用,有助於整合新學習的資訊。1995 年,Hinton 和同事提出睡眠與演算法的基線成分具有相同的功能,即在沒有輸入的情況下神經活動的速率。
Hinton 說:“你在睡眠期間所做的是弄清楚基本速率。”“你正在弄清楚如果系統自行執行,這些神經元的相關性會如何。然後,如果神經元的相關性比這更高,則增加它們之間的權重。如果它們的相關性比這低,則減少它們之間的權重。”
Sejnowski 說,在突觸的層面上,“這種演算法可以通過幾種不同的方式來實現”,他今年早些時候成為奧巴馬政府新大腦計劃的顧問,這是一項耗資 1 億美元的研究工作,旨在開發研究大腦的新技術。
他說,大腦執行玻爾茲曼演算法最簡單的方式是在白天加強突觸,然後在夜晚削弱它們。朱利奧·託諾尼,威斯康星大學麥迪遜分校睡眠與意識中心的負責人,發現突觸內部的基因表達變化支援這一假設:參與突觸生長的基因在白天更加活躍,而參與突觸修剪的基因在睡眠期間更加活躍。
塞伊諾夫斯基說,或者,“基線可能在睡眠期間計算,並在白天根據它進行更改”。他的實驗室正在建立突觸及其維持的網路的詳細計算機模型,以確定它們如何在清醒和睡眠期間收集放電統計資料,以及何時更改突觸強度以反映差異。
大腦複雜性
類玻爾茲曼演算法可能只是大腦用來調整其突觸的眾多演算法之一。在 20 世紀 90 年代,幾個獨立的研究小組開發了一個理論模型,說明視覺系統如何有效地編碼衝擊視網膜的資訊洪流。該理論認為,一種類似於影像壓縮的稱為“稀疏編碼”的過程發生在視覺皮層的最低層,使得視覺系統的後期階段更加有效。
該模型的預測正逐漸透過越來越嚴格的實驗測試。在五月份發表在 PLOS 計算生物學雜誌上的一篇論文中,英國和澳大利亞的計算神經科學家發現,當使用由 Hinton 於 2002 年發明的稱為專家乘積的稀疏編碼演算法的神經網路暴露於與活貓相同的異常視覺資料時(例如,貓和神經網路都只看到條紋影像),它們的神經元會產生幾乎完全相同的異常。
加州大學伯克利分校紅木理論神經科學中心主任、計算神經科學家布魯諾·奧爾肖森幫助開發了稀疏編碼理論,他說:“當資訊到達視覺皮層時,我們認為大腦將其表示為稀疏程式碼。所以,這就像你的後腦勺裡坐著一臺玻爾茲曼機器,試圖學習稀疏程式碼元素之間的關係。”
奧爾肖森和他的研究團隊最近使用視覺皮層較高層的神經網路模型來展示大腦如何能夠在影像運動的情況下建立對視覺輸入的穩定感知。在另一項最近的研究中,他們發現,觀看黑白電影的貓的整個視覺皮層中的神經元放電活動可以用玻爾茲曼機很好地描述。
這項工作的一個潛在應用是在構建神經假體方面,例如人工視網膜。奧爾肖森說,通過了解“大腦中資訊的格式化方式,你就會知道如何刺激大腦,讓某人認為他們正在看到影像”。
塞伊諾夫斯基說,瞭解突觸生長和收縮的演算法將使研究人員能夠改變它們,以研究網路功能如何崩潰。他說:“然後你可以將其與人類已知的疾病進行比較。幾乎所有的精神障礙都可以追溯到突觸問題。因此,如果我們能夠更好地瞭解突觸,我們將能夠了解大腦的正常功能,它如何處理資訊,如何學習,以及當你患有精神分裂症等疾病時會發生什麼。”
理解大腦的神經網路方法與瑞士神經科學家亨利·馬克拉姆備受炒作的計劃——使用超級計算機建立人腦的精確模擬——人類大腦專案形成了鮮明對比。與 Hinton 從高度簡化的模型開始並逐漸使其複雜化的方法不同,Markram 希望從一開始就儘可能多地包括細節,直到單個分子,希望完整的功能和意識能夠湧現出來。
該專案於 1 月份從歐盟委員會獲得了 13 億美元的資助,但 Hinton 認為,由於有太多無人理解的活動部件,這種大型模擬將會失敗。(Markram 沒有回應置評請求。)
更普遍地說,Hinton 認為大腦的運作方式不能僅從大腦成像研究的細節中推斷出來;相反,這些資料應該用於構建和完善演算法。他說:“你必須進行理論思考,探索學習演算法的空間,才能提出像玻爾茲曼機這樣的理論。” 對於 Hinton 來說,下一步是開發用於訓練更多類似大腦的神經網路的演算法,例如那些在層內而不僅僅是層之間連線神經元的突觸的演算法。他說:“一個主要目標是瞭解在每個階段進行更復雜的計算在計算上能獲得什麼。”
該假設是,更多的互連性可以實現更強的反饋迴路,根據奧爾肖森的說法,這很可能是大腦如何實現“感知填充”的方式,即更高層基於部分資訊對較低層正在感知的內容做出推斷。“這與意識密切相關,”他說。
當然,人腦比任何模型都要複雜得多;它更大、更密集、更高效、更互連、擁有更復雜的神經元,並且同時處理多個演算法。奧爾肖森估計,我們只瞭解視覺皮層中 15% 的活動。儘管這些模型正在取得進展,但神經科學仍然“有點像牛頓之前的物理學”,他說。儘管如此,他相信,基於這些演算法構建的過程可能有一天會解釋大腦的終極謎團——感官資料如何轉化為對現實的主觀意識。奧爾肖森說,意識“是從一個非常、非常複雜的玻爾茲曼機中湧現出來的”。
經Quanta Magazine許可轉載,Quanta Magazine 是SimonsFoundation.org的一個編輯獨立部門,其使命是透過報道數學以及物理和生命科學領域的研究進展和趨勢來增進公眾對科學的理解。