2020年5月的一個下午,德克薩斯大學奧斯汀分校計算機科學博士生傑裡·唐恩坐在電腦螢幕前,盯著一串神秘的文字
“我還沒有完成二十歲開始我的職業生涯,沒有拿到駕照,我永遠不必拉出來跑回家讓父母送我回家。”
這個句子雜亂無章,語法錯誤。但對唐恩來說,這代表著一項了不起的成就:一臺計算機從一個人的大腦中提取出一個想法,儘管這個想法是脫節的。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續講述關於塑造我們今天世界的發現和想法的具有影響力的故事。
幾個星期以來,自從疫情關閉了他的大學並迫使他的實驗室工作轉移到線上以來,唐恩一直待在家裡調整一個語義解碼器——一個 腦機介面,或 BCI,它可以從腦部掃描生成文字。在大學關閉之前,研究參與者已經提供了幾個月的資料來訓練解碼器,在聽數小時的故事播客時,一臺功能性磁共振成像 (fMRI) 機器記錄了他們的大腦反應。然後,參與者聽了一個新的故事——一個沒有用於訓練演算法的故事——這些 fMRI 掃描被輸入到解碼器中,解碼器使用 GPT1,即無處不在的 AI 聊天機器人 ChatGPT 的前身,來吐出一個文字預測,預測參與者聽到了什麼。對於這段片段,唐恩將其與原始故事進行了比較
“雖然我二十三歲了,但我還沒有駕照,當我需要的時候我就跳出來了,她說,那你為什麼不回到我家,我送你一程。”
解碼器不僅捕捉到了原文的要點,還產生了特定詞語的精確匹配——二十,駕照。當唐恩與他的導師分享結果時,他的導師是一位名叫亞歷山大·胡特的德克薩斯大學奧斯汀分校神經科學家,他已經致力於構建這樣的解碼器近十年了,胡特驚呆了。“我的天哪,”胡特回憶說。“這真的在起作用。” 到 2021 年秋季,科學家們正在測試該裝置,完全沒有外部刺激——參與者只是想象一個故事,解碼器就吐出一個可識別的,儘管有些模糊的故事描述。“這兩個實驗都指向,”胡特說,“我們在這裡能夠解讀出來的是真正的想法,就像那個想法一樣。”
科學家們對這種裝置的潛在的改變人生的醫療應用感到非常興奮——例如,為患有 閉鎖綜合徵的人恢復交流能力,他們的近乎全身癱瘓使說話成為不可能。但正如解碼器的潛在益處突然顯現出來一樣,其使用所帶來的棘手的倫理問題也隨之而來。胡特本人一直是實驗中的三位主要測試物件之一,而該裝置的隱私影響現在看來很直觀:“哦,我的上帝,”他回憶說。“我們可以看到我的大腦內部。”
神經科學家亞歷山大·胡特(左)與計算機科學博士生傑裡·唐恩(中)和前博士生莎莉·賈恩(右)討論語義解碼器專案。胡特已經致力於構建解碼器近十年了。視覺效果:諾蘭·祖克/德克薩斯大學奧斯汀分校
胡特的反應反映了神經科學領域及其他領域長期以來關注的一個問題:機器可能在未來某一天讀取人們的思想。隨著 BCI 技術的飛速發展,這種可能性以及其他類似的可能性——例如,未來的計算機可能會改變人類身份或阻礙自由意志——已經開始顯得不那麼遙遠。“精神隱私的喪失,這是我們今天必須打的一場仗,”哥倫比亞大學神經科學家拉斐爾·尤斯特說。“這可能是不可逆轉的。如果我們失去了精神隱私,還有什麼可失去的?就這些了,我們失去了我們本質的自我。”
在這些擔憂的刺激下,尤斯特和幾位同事發起了一場國際運動,倡導“神經權利”——尤斯特認為應將一套五項原則寫入法律,作為對抗神經技術潛在濫用和誤用的堡壘。但他可能快要來不及了。
在過去的 10 年裡,神經技術領域以驚人的速度發展。根據行業研究公司 NeuroTech Analytics 的一份報告,2010 年至 2020 年間,對該行業的年度投資增長了 20 多倍,升至每年超過 70 億美元。超過 1200 家公司湧入該領域,而前總統巴拉克·奧巴馬的 BRAIN 計劃等大規模政府努力,已解鎖數十億美元的公共資金。事實證明,該領域的進步改變了帕金森病、脊髓損傷和中風等疾病患者的生活。因癱瘓而無法說話或打字的人重新獲得了與親人交流的能力,患有嚴重癲癇症的人的生活質量得到了顯著提高,而失明的人已經能夠感知到部分視覺。
“如果我們失去了精神隱私,還有什麼可失去的?就這些了,我們失去了我們本質的自我。”
但是,在開啟通往大腦的大門時,科學家們也釋放出了一股新的倫理關注浪潮,引發了關於人性的根本問題,以及至關重要的是,它可能走向何方。尤斯特等科學家認為,社會今天選擇如何解決神經技術的倫理影響,將對明天的世界產生深遠的影響。“一項新興技術正在出現,它可能是變革性的,”他說。“事實上,它可能導致人類物種的改變。”
對於胡特——一位自稱的“科幻書呆子”——BCI 技術不斷擴充套件的前沿領域是巨大的樂觀來源。然而,在解碼器實驗之後的幾周和幾個月裡,該裝置令人不安的影響開始困擾他。“這意味著什麼?”他回憶起當時的想法。“我們將如何告訴人們這件事?人們會怎麼想?我們會不會被視為創造了什麼可怕的東西?”
尤斯特非常瞭解被自己的研究弄得不安的感覺。2011 年,在胡特和唐恩構建他們的解碼器十多年前,他已經開始使用一種稱為光遺傳學的技術在小鼠身上進行實驗,這種技術使他能夠像開關一樣開啟和關閉動物大腦中的特定迴路。透過這樣做,尤斯特和他的團隊發現,他們可以透過簡單地啟用參與視覺感知的腦細胞,將人工影像植入小鼠的大腦。幾年後,麻省理工學院的研究人員表明,可以使用類似的技術來植入虛假記憶。尤斯特意識到,透過控制特定的腦回路,科學家們幾乎可以操縱小鼠體驗的每個維度——行為、情緒、意識、感知、記憶。
從本質上講,動物可以像木偶一樣被控制。“這讓我停了下來,”尤斯特回憶道,後來補充說,“小鼠和人類的大腦工作方式相同,我們今天可以對小鼠做的任何事情,我們明天都可以對人類做。”
尤斯特的小鼠實驗是在神經技術取得顯著十年成就之後進行的。2004 年,一位名叫馬修·內格爾的四肢癱瘓男子成為第一個使用 BCI 系統 恢復部分功能的人;在他的大腦運動皮層中植入了一個小小的微電極網格,運動皮層負責隨意肌運動等功能,內格爾能夠用他的思想控制他的電腦游標、玩乓球以及開啟和關閉機械手。2011 年,杜克大學的研究人員 分享,他們開發了一種雙向 BCI,允許猴子控制虛擬手臂並從中接收人工感覺,所有這些都透過刺激體感皮層來實現,體感皮層處理包括觸覺在內的感覺。這為可以感受的假肢鋪平了道路。BCI 控制的機械臂可能實現的運動型別也得到了改進,到 2012 年,它們可以三維操作物體, 允許一位癱瘓婦女僅透過思考就能喝咖啡。
拉斐爾·尤斯特實驗室中的一隻基因工程小鼠展示了一個外科植入的頭板,用於記錄和操縱神經元活動。尤斯特使用光遺傳學等技術進行實驗,這些實驗像開關一樣開啟和關閉動物大腦中的特定迴路,使它們從本質上像木偶一樣被控制。視覺效果:基特拉·卡哈納為 Undark 拍攝
與此同時,其他研究人員開始研究使用 BCI 探測更廣泛的認知過程的可能性。2008 年,由加州大學伯克利分校神經科學家傑克·加蘭特和胡特的前導師領導的團隊,朝著解碼一個人的視覺體驗邁出了第一步。研究人員使用來自 fMRI 掃描(透過評估流向不同區域的血液流量變化來測量大腦活動)的資料,能夠預測研究參與者在大量影像中看到了哪個特定影像。該團隊在一篇發表在《自然》雜誌上的論文中 寫道:“我們的結果表明,可能很快就可以僅從大腦活動測量中重建一個人視覺體驗的影像。”
三年後,加蘭特實驗室的博士後研究員西恩吉·西莫託超越了加蘭特的預測,他領導一個團隊成功地從參與者的 fMRI 掃描記錄中重建了電影片段。“這是朝著重建內部意象邁出的重要一步,”加蘭特在當時的 加州大學伯克利分校新聞稿 中說。“我們正在開啟一扇通往我們頭腦中電影的窗戶。” 僅僅一年後,由神谷之康領導的日本團隊完全打開了那扇窗戶,他們 成功解碼 了參與者夢境的廣泛主題。
但是,隨著這些進步和其他進步推動該領域向前發展,並且隨著他自己的研究揭示了大腦易受外部操縱的不安脆弱性,尤斯特發現自己越來越關注對這些技術的倫理關注不足。即使是奧巴馬數十億美元的 BRAIN 計劃,這是一個旨在推進大腦研究的政府計劃,尤斯特在 2013 年幫助啟動並大力支援,似乎也大多忽略了其資助的研究的倫理和社會後果。“在倫理方面,沒有任何努力,”尤斯特回憶說。
“小鼠和人類的大腦工作方式相同,我們今天可以對小鼠做的任何事情,我們明天都可以對人類做。”
尤斯特於 2015 年被任命為 BRAIN 計劃的輪值顧問小組,在那裡他開始表達他的擔憂。那年秋天,他加入了一個非正式工作組來考慮這個問題。“我們開始開會,我非常清楚地意識到情況完全是一場災難,”尤斯特說。“沒有指導方針,沒有做任何工作。” 尤斯特說,他試圖讓該小組為新型 BCI 技術制定一套倫理指導方針,但這項努力很快陷入了官僚主義的泥潭。他感到沮喪,退出了委員會,並與一位名叫薩拉·戈林的華盛頓大學生物倫理學家一起,決定獨立地追求這個問題。“我們的目標不是助長或加劇對末日情景的恐懼,”這對搭檔在 2016 年 《細胞》雜誌文章中寫道,“而是確保我們在為神經技術未來做好準備時,具有反思性和目的性。”
2017 年秋季,尤斯特和戈林在哥倫比亞大學晨邊校區召集了一次會議,邀請了來自世界各地近 30 位專家,包括神經技術、人工智慧、醫學倫理和法律等領域。到那時,其他幾個國家已經啟動了自己的 BRAIN 計劃版本,來自澳大利亞、加拿大、中國、歐洲、以色列、韓國和日本的代表與資深神經倫理學家和著名研究人員一起參加了晨邊聚會。“我們把自己關起來三天,研究神經技術的倫理和社會後果,”尤斯特說。“我們得出的結論是,這是一個人權問題。這些方法將非常強大,能夠訪問和操縱心理活動,並且必須從人權的角度進行監管。那時我們創造了“神經權利”這個術語。”
12 月,拉斐爾·尤斯特在他的哥倫比亞大學辦公室。隨著他自己的研究揭示了大腦易受外部操縱的不安脆弱性,尤斯特發現自己越來越關注對這些技術的倫理關注不足。視覺效果:基特拉·卡哈納為 Undark 拍攝
尤斯特正在閱讀《世界人權宣言》的副本。他說,2017 年,尤斯特和近 30 位專家聚集在一起討論“神經技術的倫理和社會後果”。“我們得出的結論是,這是一個人權問題。”視覺效果:基特拉·卡哈納為 Undark 拍攝
尤斯特辦公室的書架上放著一張他在 2019 年會見西班牙國王費利佩六世的照片。社會各階層普遍缺乏對神經技術的瞭解,這在很大程度上使尤斯特扮演了全球教育者的角色。視覺效果:基特拉·卡哈納為 Undark 拍攝
晨邊小組,顧名思義,確定了四個主要的倫理優先事項,後來尤斯特將其擴充套件為五個明確定義的神經權利:精神隱私權,這將確保大腦資料保持私密性,並嚴格監管其使用、銷售和商業轉讓;個人身份權,這將為可能擾亂一個人自我意識的技術設定界限;公平獲得精神增強的權利,這將確保平等獲得精神增強神經技術;免受神經技術演算法開發中偏見的權利;以及自由意志權,這將保護個人代理權免受外部神經技術的操縱。該小組在 《自然》雜誌上發表了他們的研究結果,這篇論文經常被引用。
但是,當尤斯特和其他人專注於這些新興技術的 倫理影響 時,這些技術本身繼續以狂熱的速度向前發展。2014 年,世界盃的 第一腳球 是由一位使用意念控制的機器人外骨骼的截癱男子踢出的。2016 年,一位男子使用一個機器人手臂 與奧巴馬總統碰拳,該機器人手臂讓他能夠“感覺到”這個姿勢。次年,科學家們表明,電刺激海馬體可以改善記憶力,為認知增強技術鋪平道路。長期以來對 BCI 技術感興趣的軍方,建立了一個系統,使操作員能夠 部分用思想 同時駕駛三架無人機。與此同時,科學、科幻、炒作、創新和投機交織在一起的混亂漩渦席捲了私營部門。到 2020 年,已有超過 330 億美元投資於數百家神經技術公司——大約是 NIH 設想的 BRAIN 計劃 12 年跨度的七倍。
尤斯特和其他人在為這些新興技術開發倫理框架方面取得了進展。但在創新的喧囂聲中,問題變成了:有人會關注嗎?
當胡特和唐恩的語義解碼器開始在德克薩斯大學的實驗中產生結果時,胡特有兩種衝突的反應。一方面,他為它的成功以及它作為交流輔助工具的前景感到高興。但它也引發了對濫用這種技術的深刻擔憂。他的腦海中浮現出反烏托邦的場景:思想警察、強迫審訊、不情願的受害者被綁在機器上。“那是我們最初有點害怕的事情,”他說。
像之前的尤斯特一樣,胡特和唐恩開始了一段對他們工作的倫理進行深刻反思的時期。他們廣泛閱讀了關於該主題的文章,包括晨邊小組在 2017 年《自然》雜誌上的文章和 2020 年論文,後者由牛津大學哲學家斯蒂芬·雷尼領導的團隊撰寫。雖然未來對這些技術的應用可能超出他們的控制範圍,但他們仍然清楚地認識到,某些做法應該完全禁止——例如,從靜息狀態進行解碼,當受試者沒有積極執行任務時,或者在參與者不知情的情況下進行解碼。他們確定,大腦解碼不應在法律系統中使用,或任何其他過程中易錯性可能產生實際後果的場景中使用;事實上,它應該只在解碼資訊可以由使用者驗證的情況下使用。(例如,對於患有閉鎖綜合徵的人,應該問是或否的問題來驗證解碼資訊是否正確。)此外,胡特和唐恩得出結論,僱主應被禁止在未經同意的情況下使用其員工的大腦資料,並且公司必須對其打算如何使用透過消費裝置收集的大腦資料保持透明。
胡特和唐恩努力解決的倫理問題的核心是,他們的解碼器與大約在同一時間開發的其他語言解碼器不同,它是非侵入性的——它不需要使用者進行手術。因此,他們的技術不受管轄醫療領域的嚴格監管的約束。(尤斯特表示,他認為非侵入性 BCI 比侵入性系統帶來了更大的倫理挑戰:“非侵入性、商業性,那才是戰鬥將要發生的地方。”)胡特和唐恩的解碼器在廣泛使用方面面臨著其他障礙——即 fMRI 機器體積龐大、昂貴且固定不動。但研究人員認為,也許有一種方法可以克服這個障礙。
傑裡·唐恩准備使用德克薩斯大學奧斯汀分校的 fMRI 機器收集大腦活動資料。使用大型昂貴的機器是胡特和唐恩的解碼器廣泛使用的障礙。視覺效果:諾蘭·祖克/德克薩斯大學奧斯汀分校
fMRI 機器測量的血氧水平資訊(指示血液在大腦中的流動位置)也可以透過另一種技術功能性近紅外光譜 (fNIRS) 來測量。雖然解析度低於 fMRI,但幾款昂貴的、研究級的可穿戴 fNIRS 頭戴裝置確實接近與胡特和唐恩的解碼器一起工作所需的解析度。事實上,科學家們透過簡單地模糊他們的 fMRI 資料以模擬研究級 fNIRS 的解析度,就能夠測試他們的解碼器是否可以使用此類裝置。“解碼結果並沒有變得那麼糟糕,”胡特說。
雖然此類研究級裝置目前對於普通消費者來說成本過高,但更簡陋的 fNIRS 頭戴裝置已經上市。儘管這些裝置提供的解析度遠低於胡特和唐恩的解碼器有效工作所需的解析度,但該技術正在不斷改進,胡特認為,價格實惠的可穿戴 fNIRS 裝置很可能在某一天提供足夠高的解析度,以便與解碼器一起使用。事實上,他目前正與華盛頓大學的科學家合作研究此類裝置的開發。
即使是相對原始的 BCI 頭戴裝置,當釋出給公眾時,也會引發尖銳的倫理問題。 依賴於 腦電圖 (EEG) 的裝置,這是一種透過檢測電訊號測量大腦活動的常用方法,現在已經變得非常普及——並且在某些情況下引起了警報。2019 年,中國金華市一所學校試用 EEG 頭帶監測學生的注意力水平後,受到了批評。(鼓勵學生競爭,看看誰的注意力最集中,並向他們的父母傳送報告。)同樣,2018 年,《南華早報》 報道 ,數十家工廠和企業已開始使用“大腦監控裝置”來監測工人的情緒,以期提高生產率和改善安全性。寧波大學當時的腦科學家金佳告訴記者,這些裝置“起初引起了一些不適和抵制”。“過了一段時間,他們就習慣了這種裝置。”
胡特和唐恩努力解決的倫理問題的核心是,他們的解碼器與大約在同一時間開發的其他語言解碼器不同,它是非侵入性的。
但即使是低解析度裝置的主要問題是,科學家們才剛剛開始瞭解資訊實際上是如何編碼在大腦資料中的。未來,強大的新型解碼演算法可能會發現,即使是原始的低解析度 EEG 資料也包含有關一個人在收集時精神狀態的大量資訊。因此,當他們允許公司從他們的大腦中收集資訊時,沒有人可以明確地知道他們正在洩露什麼。
因此,胡特和唐恩得出結論,大腦資料應該受到嚴密保護,尤其是在消費產品領域。在去年四月的一篇 Medium 文章 中,唐恩寫道,“解碼技術正在不斷改進,一年後可以從腦部掃描中解碼的資訊可能與今天可以解碼的資訊大相徑庭。公司必須對其打算如何處理大腦資料保持透明,並採取措施確保大腦資料得到仔細保護。”(尤斯特說,神經權利基金會最近調查了 30 家神經技術公司的使用者協議,發現所有公司都聲稱擁有使用者的大腦資料——而且大多數公司都聲稱有權將該資料出售給第三方。)然而,儘管存在這些擔憂,胡特和唐恩仍然認為,只要建立適當的保護措施,這些技術的潛在益處就超過了它們的風險。
但是,當胡特和唐恩正在努力解決他們工作的倫理後果時,遠在半個國家的尤斯特已經清楚地認識到一件事:這些對話必須走出理論、哲學、學術、假設的範疇——它們需要進入法律領域。
在 2019 年一個炎熱的夏夜,尤斯特與他的摯友、著名的智利醫生和當時的參議員吉多·吉拉迪坐在智利北部一家土坯酒店的庭院裡,觀察著阿塔卡瑪沙漠浩瀚而明亮的天空,並像往常一樣討論著未來的世界。吉拉迪每年都會組織 未來國會,這是拉丁美洲最重要的科技盛會,他長期以來一直對技術的加速進步及其對社會正規化轉變的影響感興趣——正如他所說,“以光速生活在世界上”。尤斯特一直是該會議的常客,兩人都堅信,科學家們正在孕育足夠強大的技術,以顛覆人類的本質概念。
大約在午夜,當尤斯特喝完他的皮斯科酸酒時,吉拉迪提出了一個有趣的建議:如果他們一起努力透過一項智利憲法修正案,該修正案將精神隱私保護作為每個智利人不可侵犯的權利寫入憲法,會怎麼樣?這是一個雄心勃勃的想法,但吉拉迪在參議院推動大膽立法方面經驗豐富;多年前,他率先提出了智利著名的食品標籤和廣告法,該法律 要求公司 在垃圾食品上貼上健康警告標籤。(此後,該法律啟發了數十個國家尋求類似的立法。)在 BCI 方面,這裡有另一個成為開拓者的機會。“我對拉斐爾說,‘好吧,我們為什麼不制定第一個神經資料保護法呢?’”吉拉迪回憶說。尤斯特欣然同意。
當他們允許公司從他們的大腦中收集資訊時,沒有人可以明確地知道他們正在洩露什麼。
在接下來的幾年裡,尤斯特多次前往智利,擔任吉拉迪政治努力的技術顧問。他的大部分時間都花在了簡單地提高對這個問題的認識上——他在大學發表演講、參加辯論、舉行新聞釋出會,並會見了關鍵人物,包括尤斯特所說的,與當時的智利總統塞巴斯蒂安·皮涅拉進行了三個小時的坐談。然而,他的主要作用是為起草立法的律師提供指導。“他們對神經科學或醫學一無所知,我對法律一無所知,”尤斯特回憶說。“這是一次美妙的合作。”
與此同時,吉拉迪領導了政治推動,推動一項旨在修改智利憲法以保護精神隱私的立法。這項努力在政治光譜中獲得了令人驚訝的認同,這在一個以政治兩極分化而聞名的國家中是一項了不起的成就。2021 年,智利國會一致通過了憲法修正案,皮涅拉迅速將其簽署成為法律。(第二項立法,將為神經技術建立監管框架,目前正在智利國會審議中。)“左翼或右翼之間沒有分歧,”吉拉迪回憶說。“這可能是智利唯一一項獲得一致投票透過的法律。” 智利因此成為世界上第一個將“神經權利”寫入其法律法規的國家。
智利在立法上的巨大勝利是新興的神經權利運動令人鼓舞的第一步。但尤斯特和吉拉迪也意識到國家層面法律保護的侷限性。吉拉迪解釋說,未來的技術很容易跨越國界——或者完全存在於物理空間之外——並且發展速度太快,民主制度無法跟上。“民主國家是緩慢的,”他說。透過一項法律需要數年時間,“我們正在看到世界變化的速度。它是指數級的。” 尤斯特和吉拉迪意識到,國家法規可以提供一些有用的法律保障,但它們本身是不夠的。
前智利參議員吉多·吉拉迪在 12 月聖地亞哥的辦公室裡。吉拉迪和尤斯特共同努力修改智利憲法以保護精神隱私。“民主國家是緩慢的,”他說。透過一項法律需要數年時間,“我們正在看到世界變化的速度。它是指數級的。”
早在智利憲法修正案透過之前,尤斯特就已經開始定期與國際人權律師賈裡德·根瑟會面,根瑟曾代理過德斯蒙德·圖圖、劉曉波和昂山素季等備受矚目的客戶。(《紐約時報雜誌》曾稱根瑟為“提取者”,因為他為政治犯工作。)尤斯特正在尋求關於如何制定國際法律框架以保護神經權利的指導,而根瑟雖然對神經技術只有粗略的瞭解,但他立刻被這個話題吸引住了。“可以公平地說,他在第一次討論的一個小時內就讓我大開眼界,”根瑟回憶道。此後不久,尤斯特、根瑟和一位名叫傑米·戴維斯的私營部門企業家成立了神經權利基金會,這是一個非營利組織,其網站顯示,該基金會的首要目標是“保護所有人的人權,使其免受神經技術的潛在誤用或濫用。”
為了實現這一目標,該組織力求動員社會各界,從聯合國和美洲國家組織等區域管理機構,到國家政府、科技行業、科學家和廣大公眾。根瑟說,如此廣泛的做法“或許是我們的瘋狂之舉,或者是狂妄自大。但即便如此,你知道,當談論這些全球性問題時,這絕對是狂野西部,因為很少有人知道事態發展到什麼程度,未來的方向是什麼,以及什麼是必要的。”
普遍缺乏對神經科技的瞭解,存在於社會各個階層,這在很大程度上使尤斯特扮演了全球教育者的角色——例如,他曾多次與聯合國秘書長安東尼奧·古特雷斯會面,討論新興神經科技的潛在危險。這些努力開始產生效果。古特雷斯2021年的報告《我們的共同議程》為未來的國際合作設定了目標,其中敦促“更新或澄清我們對人權框架和標準的適用,以解決前沿問題”,例如“神經技術”。根瑟將報告中包含這些措辭歸功於尤斯特的倡導努力。
但更新國際人權法是困難的,即使在神經權利基金會內部,對於最有效的方法也存在意見分歧。對於尤斯特來說,理想的解決方案是建立一個新的國際機構,類似於國際原子能機構——但卻是為了神經權利。“我的夢想是就神經技術達成一項國際公約,就像我們曾經就原子能和某些事物達成公約一樣,並有自己的條約,”他說。“也許還有一個機構可以基本上監督世界在神經技術方面的努力。”
然而,根瑟認為,沒有必要制定新的條約,透過擴充套件對現有國際人權法的解釋以涵蓋神經權利,可以最有效地將神經權利編纂成法典。《公民權利和政治權利國際公約》例如,已經確保了一般的隱私權,而對該法律的更新解釋可能會明確,該條款也擴充套件到精神隱私。
根瑟解釋說,擴充套件對現有法律解釋的優勢在於,這些條約的簽署國將有義務立即使其國內法律符合新的解釋——這是一種在國際和國家層面同時刺激神經權利行動的方式。在《公民權利和政治權利國際公約》的案例中,根瑟說,“對於所有締約國——170多個締約國來說,這將有一個明確的暗示,即他們現在需要提供國內精神隱私權,以遵守其在條約下的義務。”
但即使根瑟認為這條途徑將為在國際法中確立神經權利提供最快捷的途徑,但這個過程仍然需要數年時間——首先是各個條約機構更新他們的解釋,然後是各國政府努力使其國內法律符合規定。法律護欄總是落後於技術進步,但這在神經技術加速發展的步伐下可能會變得尤其成問題。
這種滯後對於像吉拉爾迪這樣的人來說是非常麻煩的,他們質疑制度是否能夠承受即將到來的變化。畢竟,當人類以光速生活在這個世界上時,法律如何才能跟上步伐呢?
雖然尤斯特和其他人繼續努力解決國際法和國家法的複雜性,但胡思和唐發現,至少對於他們的解碼器來說,最大的隱私護欄並非來自外部機構,而是來自更貼近自身的東西——人類的思想本身。在他們的解碼器最初獲得成功之後,隨著兩人廣泛閱讀關於這項技術倫理影響的文章,他們開始思考評估解碼器能力邊界的方法。“我們想測試一些精神隱私的原則,”胡思說。簡而言之,他們想知道解碼器是否可以被抵制。
2021年末,科學家們開始進行新的實驗。首先,他們好奇是否可以將在一個人的資料上訓練的演算法用於另一個人。他們發現不能——解碼器的有效性取決於數小時的個性化訓練。接下來,他們測試了是否可以透過簡單地拒絕合作來阻止解碼器。參與者沒有專注於戴著耳機在功能性磁共振成像 (fMRI) 機器中播放的故事,而是被要求完成其他心理任務,例如說出隨機動物的名字,或在腦海中講述不同的故事。“這兩種方法都使其完全無法使用,”胡思說。“我們沒有解碼他們正在聽的故事,也無法解碼他們正在思考的任何內容。”
結果表明,至少目前,非自願讀心術的噩夢場景仍然遙遠。隨著這些倫理擔憂的減弱,科學家們已將重點轉移到他們發明的積極方面——例如,它作為恢復溝通工具的潛力。他們已開始與華盛頓大學的一個團隊合作,研究與他們的解碼器相容的可穿戴式近紅外光譜 (fNIRS) 系統的可能性,這或許為不久的將來具體的醫療應用打開了大門。儘管如此,胡思欣然承認反烏托邦式預測的價值,並希望它能繼續下去。“我確實讚賞人們不斷提出新的糟糕情景,”他說。“這是我們需要繼續做的事情,對吧?思考‘這些事情會如何出錯?它們會如何走上正軌,但又會如何出錯?’這很重要,我們需要知道。”
然而,對於尤斯特來說,像胡思和唐的解碼器這樣的技術可能僅僅標誌著人類歷史上一個令人難以置信的新篇章的開始,在這個篇章中,人類大腦和計算機之間的界限將被徹底改寫——或者完全抹去。他說,未來是可想象的,人類和計算機將永久融合,從而導致技術增強的賽博格人的出現。“當這場海嘯襲擊我們時,我會說這並非不可能,而是肯定會發生,人類最終會將自己——我們自己——轉變成也許是一種混合物種,”尤斯特說。他現在專注於為這個未來做準備。
“即使現在還很初級,五年後會發展到什麼程度?五年前可能實現什麼?現在可能實現什麼?五年後會發展到什麼程度?十年後會發展到什麼程度?”
在過去的幾年裡,尤斯特走訪了多個國家,會見了各色各樣的政治家、最高法院法官、聯合國委員會成員和國家元首。他的倡導開始產生成果。8月,墨西哥開始考慮一項憲法改革,該改革將確立精神隱私權。巴西目前正在考慮一項類似的提案,而西班牙、阿根廷和烏拉圭也表示了興趣,歐盟也是如此。9月,神經權利正式納入墨西哥的數字權利憲章,而在智利,一項具有里程碑意義的最高法院裁決認定,可穿戴式腦電圖 (EEG) 頭盔製造商 Emotiv Inc 違反了智利新近制定的精神隱私法。該訴訟是由尤斯特的朋友和合作者吉多·吉拉爾迪提起的。
尤斯特倡導工作的快節奏或許源於一種信念,即行動的視窗正在迅速關閉,明日世界不再遙遙無期。“他們過去常常問我,‘你認為我們什麼時候應該開始擔心精神隱私?’”他回憶道。“我會說‘五年’。‘那擔心我們的自由意志呢?’我說‘從現在起10年’。好吧,你猜怎麼著?我錯了。”
胡思同意現在是採取行動的時候了。他解釋說,這些技術可能仍處於起步階段,但與其等待可怕的事情發生,不如積極主動地建立精神保護機制。
“這是一件我們應該認真對待的事情,”他說。“因為即使現在還很初級,五年後會發展到什麼程度?五年前可能實現什麼?現在可能實現什麼?五年後會發展到什麼程度?十年後會發展到什麼程度?我認為合理的可能性範圍包括一些——我不想說足夠可怕——但像足夠反烏托邦,以至於我認為現在絕對是我們思考這個問題的時候了。”
