十二年前,當我大學畢業時,我非常清楚矽谷的炒作機器,但我認為私營科技公司的推銷術與我在神經科學課程中學到的人類生物學客觀真理相去甚遠。當時,我看到神經科學家亨利·馬克拉姆在TED演講中宣稱,他已經找到了一種方法,可以在10年內在超級計算機上模擬整個人腦。這種計算機模擬的器官將使科學家能夠立即且無創地測試治療疾病的新方法,使我們的研究從依賴動物實驗和對活人的精細干預,轉變為神經科學的“計算機內”方法。
我22歲的頭腦並沒有將此視為過度炒作的提議。相反,它讓人感到興奮和大膽,這是那種將遙遠的科學夢想轉變為突然可實現的目標,並激勵資助者和同行研究人員進行更大膽思考的時刻。因此,我開始了一個為期10年的紀錄片專案,追蹤馬克拉姆和他的藍腦計劃,這部電影的開拍恰逢大型神經科學時代的開始,矽谷生產的嗡嗡作響的黑盒子開始被視為理解我們耳朵之間黑盒子的偉大新希望。
我花費十年記錄馬克拉姆願景的旅程沒有明確的答案,或許只有一個:在理解大腦複雜的生物學機制方面,花哨的演示和純粹的野心是不可靠的成功指標。今天,當我們目睹猴子用意念控制玩Pong遊戲,這是埃隆·馬斯克的初創公司Neuralink的又一次誇張演示的一部分時,比以往任何時候都更需要解開炒作的迴圈,以便應對大腦技術和神經科學未來將為人類帶來什麼。
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續講述關於發現和塑造我們今天世界的想法的具有影響力的故事。
這類炒作通常依賴於對過去未兌現承諾的選擇性失憶,以便重新補充對科學和技術進步的熱情。我對藍腦計劃承諾的最初興奮仍然伴隨著我,但已經融入了更加混亂、更加複雜的體驗中。在馬克拉姆的TED演講之後的十年裡,我遇到的批評和技術限制使每個新的神經炒作週期都成為對早期熱情和錯誤處理它們危險的有力提醒。
我的第一個思維轉變發生在記錄藍腦計劃大約三年後。事情並沒有按計劃進行:在一個訪客放映室裡,可以看到設定為藍色多瑙河的第一平方毫米模擬大鼠大腦的壯麗飛行視覺化,但在實現人腦的路線圖上明顯缺乏進展。很快,就有人談論一項必要的、更大的努力,稱為人腦計劃,這將需要更多的資金,但最終將提供實現該目標所需的資源。提案被提交,該專案贏得了歐盟十億歐元的資助,但僅在一年後,在800多名神經科學家簽署了一封公開信,不同意如何模擬人腦的核心願景,並反對其發起人和主任馬克拉姆的領導風格之後,就陷入爭議。
隨著科學爭議和人際關係破裂逐漸向我表明,在計算機上重建人腦的10年計劃可能一直是一個白日夢,我開始採訪更多該事業的批評者,並開始更詳細地審視說你想做這樣的事情到底意味著什麼。普林斯頓大學神經科學家塞巴斯蒂安·承在我們的採訪中向我提出了一個問題,隨著時間的推移,這個問題一直困擾著我,指出了這項工作正在走向的科學、倫理和道德陷阱:“我想問你這個問題,”承開始說道,將問題轉向了我自己在藍腦計劃的拍攝時間,以及該專案研究人員在令人眼花繚亂的視覺化中呈現的模擬小鼠大腦的性質。“他們向你展示了其中一些神經活動的模擬。假設它看起來不同;你如何知道那是錯誤的還是正確的?”坐在攝像機後面,我回答說:“嗯,我不知道。”承重申:“對,任何人怎麼會知道什麼是錯誤的活動模式或正確的活動模式?”
當人們開始質疑在這種情況下“正確”意味著什麼時,問題就來了,因為在一個完美程式設計的機器電路中重建一個深刻嘈雜的生物系統似乎最終會遇到一個根本的平臺問題。生物學執行的動力是不可預測的“錯誤”——稱為突變——這些突變產生了物種內個體之間觀察到的變異性,並與我們的環境相互作用,透過自然選擇驅動進化變化。眾所周知,神經元也是嘈雜的元素,產生遠非完全可預測事件的動作電位。另一方面,在計算機中,結構性錯誤(稱為“錯誤”)會很快得到修復,以便為手頭任務的完美程式碼讓路。
當然,人腦的許多元素可以被建模、探測並提取其普遍性,正如我們對人心臟所做的那樣,以便創造一種可以在我的身體或你的身體中發揮作用,讓我們活下去的裝置。但是,當談到構建整個人腦的完整模擬時,正如馬克拉姆在我們的第一次採訪中告訴我的那樣,它將“擁有意識”並“會說語言”,在計算機上執行的確定性軟體系統如何才能捕捉到在生物生命的每個層面看到的真正不可預測的錯誤,從我們DNA中的突變到突觸的活動?
雖然多年來我採訪的科學家們對生物學計算機模擬中噪聲和混亂的棘手問題分享了各種觀點,但直到我對藍腦計劃中一位更年輕的神經科學家進行採訪時,我才聽到一個切入實證主義公共關係粉飾的答案。當被問及如何才能在生物有機體的模擬中找到“正確”的變異性時,她回答說:“這是一個很好的問題,因為正確的種類,我們永遠無法知道什麼是正確的變異性。”
如果我們永遠無法知道正確的變異性,那麼在努力在計算機上模擬生物結構時,我們真正談論的似乎是一個數字系統,它完全按照其創造者希望它做的那樣做。從人工智慧中獲得啟發,計算神經科學正在逐漸放棄生物大腦,轉而尋求完美的演算法,就像其在深度學習中的表親一樣,最終可能會產生更多執行任務但在內部仍然難以理解的黑盒子。
在旨在數字機器上重現生物功能的伺服器農場和神經科學實驗室的大廳裡,模擬身份的道德責任成為一箇中心問題。神經活動模擬遠未達到“人腦”的客觀重建,最終將成為其創造者偏見的鏡子。當科技公司認為理解一個系統對於操縱它或複製它的盈利版本並非必不可少時,那麼當有問題的系統是人腦時,那將意味著什麼?
馬克拉姆想要加速神經科學走向整個人腦模擬的動機之一是他面對兒子自閉症診斷時的無助感。事實上,對於該領域的許多研究人員來說,這項工作背後的意圖可能是非常私人的,並且至少在理論上是廣泛有益的——這就是為什麼我仍然被實驗和科學野心所實現的人類狀況改善能力所吸引。然而,隨著技術飛速發展,某種技術官僚式的推銷術繼續支配著人類的集體耳朵,虛構與現實之間的界限將繼續模糊,導致炒作和失望的迴圈,威脅到公眾對科學的長期信心。
這是一篇觀點和分析文章。
