在與熟人談話時,你的大腦可能會超前一步,預測對方將要說的話。也許那時你會脫口而出你腦海中浮現的任何想法。或者,也許你會默默地揣摩你的猜測,等待看看——在成千上萬種可能性中——你的談話夥伴是否會說出你一直在思考的同一個詞。令人驚訝的是,你的同伴通常會這樣做。
大腦是如何做到這一點的?弄清楚我們如何處理語言長期以來一直是神經科學家的關注焦點。麻省理工學院的研究人員使用一種名為整合建模的技術,為這個問題帶來了新的視角。他們將數十種機器學習演算法(稱為神經網路)與腦部掃描和其他資料顯示一個人在閱讀或聆聽語言時神經迴路如何運作的資料進行了比較。研究人員有一個由兩部分組成的目標:他們想弄清楚大腦如何處理語言,並透過這樣做來突破機器學習演算法可以教給我們關於大腦知識的界限。
建模技術揭示,下一個詞的預測可能起著關鍵作用,這對於諸如在你撰寫簡訊和電子郵件時建議單詞的演算法至關重要。研究人員發現,擅長預測下一個詞的模型也最擅長預測大腦活動模式和閱讀時間。因此,這些模型似乎不僅對在你輸入“do you”後提出單詞“want”有用,或者讓計算機在幕後完成任意數量的任務有用。它們還可以為了解你的大腦如何理解從你朋友口中湧出的大量詞語提供一個視窗。
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。
研究人員認為,這項研究標誌著機器學習演算法首次與大腦資料相匹配,以解釋高階認知任務的運作方式。(神經網路已在視覺和聽覺研究中使用了多年。)該發現表明,預測處理是我們理解語言方式的核心,並證明了人工神經網路如何為認知提供關鍵見解。
“我沒想到這會在我的有生之年發生,”麻省理工學院的認知神經科學家、該論文的共同資深作者伊芙琳娜·費多連科說。“相對於人類神經資料,這些模型的表現比我預測的要好得多。這只是打開了各種各樣的大門。”
研究人員檢查了基於 43 個人工神經網路的模型——這項技術由數千或數百萬個相互連線的節點組成,類似於大腦中的神經元。每個節點處理資料並將其饋送到其他節點。麻省理工學院團隊研究的一些模型針對下一個詞的預測進行了最佳化,包括著名的生成式預訓練Transformer(GPT-2),它因其建立類似人類文字的能力而引人注目。
研究人員發現,神經網路節點的活動與人類閱讀文字或聽故事時的大腦活動相似。他們還將神經網路的效能轉化為對大腦表現的預測——例如大腦閱讀某個詞所需的時間。
這項工作為研究更高級別的大腦任務奠定了基礎。“我們認為這是一種模板或指南,說明如何採用這種將模型與資料關聯的完整方法,”麻省理工學院腦與認知科學博士生、該論文的第一作者馬丁·施裡普夫說。
研究人員發現,最擅長猜測下一個詞的模型也最擅長預測人腦對相同任務的反應。對於處理單個句子和短段落尤其如此。當涉及到較長的文字塊時,這些模型在預測單詞或人類反應方面明顯較差。沒有任何其他任務反映大腦中發生的事情。作者認為,這有力地證明了下一個詞的預測或類似的東西在理解語言中起著關鍵作用。“它告訴你,基本上,類似於最佳化預測表示的東西可能是生物系統和這些計算機模型共同的目標,”費多連科說。
斯坦福大學的計算神經科學家丹·亞明斯(未參與這項研究)對此評論說:“工程學和真實的生物進化之間發生了一種趨同進化。” 計算機科學獨立提出了一種針對複雜認知任務的解決方案,而大腦已經在數千年中設計出了這種解決方案。
“我對[麻省理工學院團隊]取得的成就印象深刻,”斯坦福大學的心理學家諾亞·古德曼(也未參與這項研究)說。但他補充說,他懷疑這些資料不足以解釋人們如何從語言中獲得意義。儘管有這些保留意見,古德曼表示,這種方法“仍然比我們過去擁有的任何方法都好得多”。
雖然神經網路和計算科學總體上只是大腦的粗略類比,但它們在我們理解自身思想方面的作用可能是巨大的。費多連科及其同事使用的整合建模表明,神經網路和計算科學實際上可能是提供關於大腦如何處理各種資訊的偉大奧秘的見解的關鍵工具。
