誰想成為一個賽博格?

哲學家蘇珊·施耐德權衡了激進技術增強的利弊

蘇珊·施耐德

三月初——在“過去”的時代——我坐在學校一個擁擠的禮堂裡,聽一位哲學家談論一些與我們所知道的完全無關的事情。演講者,蘇珊·施耐德,思考了人工智慧和其他技術如何可能改變我們的身體和思想,無論是好是壞。她在她生動的新書《人工你:人工智慧與你思想的未來》中也探討了這些主題。最近發生的事件分散了我們對技術增強的思考,奇點和所有相關內容的思考,但這些問題仍然重要,施耐德對它們有著挑釁性的看法。施耐德是巴魯克·S·布隆伯格 NASA/國會圖書館天體生物學主席,她最近一直很忙。她最近成為了佛羅里達大西洋大學威廉·F·迪特里希傑出哲學教授,並在大腦研究所聯合任職;她還在創立一個關於智慧未來的中心。儘管如此,她還是抽出時間回答了一些問題。——約翰·霍根

以下是採訪的編輯稿。

霍根:神經科學家克里斯托夫·科赫建議我們植入大腦晶片以跟上機器的步伐。你覺得這是個好主意嗎?


關於支援科學新聞

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您正在幫助確保有關當今塑造我們世界的發現和想法的有影響力的故事的未來。


施耐德:這取決於更大的社會和政治環境。目前有幾個大型研究專案試圖將人工智慧植入大腦和周圍神經系統。他們的目標是在無需鍵盤中介的情況下將您連線到雲端。對於像 Neuralink、Facebook 和 Kernel 這樣從事這項業務的公司來說,您的大腦和身體是未來利潤的競技場。如果沒有適當的立法保障,您的思想和生物識別資料可能會被賣給出價最高的人,而專制獨裁政權將擁有終極的思想控制裝置。因此,隱私保護至關重要。

我還有其他擔憂。我擔心人們會感到有壓力使用大腦植入物,以便他們在工作或大學中保持競爭力。增強應該是真正可選的。此外,我擔心如果只有少數精英得到增強,那麼富人和窮人之間將存在巨大的智力鴻溝。今天的數字鴻溝可能會演變成思想的數字鴻溝!我相信克里斯托夫不希望出現這樣的未來,他假設這些增強是在平等主義的背景下進行的。但問題是如何從這裡到達那裡。

霍根:對意識的哲學研究與關於增強的辯論相關嗎?

施耐德:是的。這是我在《人工你》中探討的一個假設情景。假設現在是 2040 年,您正在購物。您漫步走進一家從事“美容神經學”的商店:心智設計中心。在那裡,客戶可以從各種大腦增強功能中進行選擇。例如,“人類計算器”將賦予您專家級的數學能力;“禪宗花園”可以給您帶來禪宗大師的冥想狀態。據傳,如果臨床試驗按計劃進行,客戶將能夠購買名為“融合”的增強套裝。“融合”是一系列增強功能,允許客戶在五年內逐步增強並將其所有心理功能轉移到雲端。

假設這些增強在醫學上是安全的,如果可以的話,您會購買什麼?

除了我剛才提出的擔憂之外,在做出決定時,還要牢記兩個哲學問題。首先,要了解以這些激進的方式進行增強是否明智,您必須首先了解您是什麼以及您是誰。哲學家長期以來一直在爭論自我和思想的本質,可以說存在大量的哲學分歧。例如,如果自我或思想密切依賴於您擁有一個運轉良好的大腦,如果您用微晶片替換太多的大腦,那麼您將在某個時候殺死自己!這根本不是增強。我將這種現象稱為“腦流失”

第二個問題涉及意識的本質。請注意,在您清醒的生活中,甚至在您做夢時,感覺總是像是成為你。此刻,您正在體驗身體感覺,聽到背景噪音,看到頁面上的文字。您正在經歷有意識的體驗。

哲學家長期以來將意識的本質視為一個謎。他們指出,我們並不完全理解為什麼大腦中的所有資訊處理感覺像是某種東西。他們還認為,我們仍然不理解意識是否是我們生物基質所獨有的,或者其他基質(如矽微晶片)是否也能夠成為意識體驗的底層基質。

為了便於討論,假設微晶片不是意識的正確基質。在這種情況下,如果您用微晶片替換大腦的一個或多個部分,您將減少或結束您作為有意識的生命的生活!

如果這是真的,那麼您就不想購買“融合”,至少如果您關心生存的話。事實上,您會非常小心地新增哪怕一個大腦晶片,因為擔心這樣做會影響意識或以過於激進的方式改變您的身份。否則,您可能會花錢結束您自己的存在!

如果晶片不是意識的正確基質,那麼意識可能就是人類智慧增強的設計上限。相比之下,人工智慧沒有這個限制,但它們將無法擁有意識。但是它們仍然可能比我們更聰明,如果它們真的這樣做了,這將意味著地球上最聰明的實體甚至沒有意識。這個問題使得確定機器是否有意識非常重要。幸運的是,我認為我們最終可以瞭解微晶片是否是意識的基質。我在書中提出了兩種人工意識的測試。

霍根:《人工你》中,您將自己描述為超人類主義者,但您對超人類主義的目標表示懷疑,例如將上傳作為通往永生的途徑。您在哪些方面是超人類主義者?

施耐德:作為一名大學生,我對地球上的技術烏托邦的超人類主義願景著迷。超人類主義者認為,增強人類智力和延長壽命是可取的,無論是從個人發展的角度還是從我們整個物種的發展角度來看。在我們周圍,超人類主義的願景正變得越來越真實。例如,泰德·伯傑的實驗室創造了一個人工海馬體,以取代那些無法形成新記憶的人失去的海馬體功能。美國國防部資助了一個名為“突觸”的專案,該專案試圖開發一種在形式和功能上都類似於大腦的計算機。現在在谷歌擔任工程主管的未來學家雷·庫茲韋爾甚至討論了與個性化人工智慧系統建立式友誼的潛在優勢。

我仍然認為自己是超人類主義者,因為我希望新興技術能夠為我們提供疾病治療、延長壽命,甚至在我們需要增強的情況下增強我們的精神生活。然而,我認為某些超人類主義目標是構想不周的,例如思想上傳。我的擔憂類似於我討論的關於您假設訪問心智設計中心的問題。

例如,考慮一下亞馬遜的熱門節目《上載》。現在是 2033 年,內森·布朗發生了一起罕見的事故,為了在最後的努力中倖存下來,並在急診室裡受到一位控制慾強的女朋友的慫恿,她正等著抓住他即將成為的化身,他將自己的大腦上傳到計算機上。他在某種程度上醒來在“數字天堂”裡。(這是一部喜劇。)事實上,天堂是一個公司廉價的終極山地小屋假期,充滿了鮮豔的秋葉,但卻充滿了演算法故障,導致他有時渴望真正的死亡。(這個節目在疫情期間觀看很有趣;內森的居家隔離比我的更糟。)《人工你》認為,即使這項技術有效,像內森這樣的人也無法倖存。充其量,嘗試掃描會建立一個數字分身。也許這個存在會有意識,也許不會,但在任何情況下都不會是他。可悲的是,當他的生物大腦被摧毀時,真正的內森死在了掃描臺上。

霍根:您會熱切擁抱哪種認知增強?您想永生嗎?

施耐德:我左右為難。一方面,我被增強意識、情感、認知能力和感知能力的理念所吸引。放馬過來吧!另一方面,我擔心,考慮到涉及人性的形而上學不確定性,我們可能會在對“自我或人性的本質是什麼?”這個問題有明確、無爭議的答案之前,就面臨增強的決定。當然,嘗試一下我可能沒有什麼損失。例如,也許我知道我會在一個月後死於進行性腦腫瘤。我確信上傳只會建立一個分身,但考慮到嚴峻的形勢,我可能會做出信念的飛躍並選擇一些大腦晶片。也許我會很幸運,腦流失不會發生。

當然,真正的永生需要靈魂或非物質的思想。那些渴望透過激進增強實現永生的人正在尋求不同的東西,一種技術設定,使他們能夠在宇宙大爆炸之前一直存在,甚至成為宇宙熱寂的旁觀者。我稱之為“功能性永生”,以區別於真正的永生。

我以前的老師伯納德·威廉姆斯(Bernard Williams)曾說過他不覺得永生有什麼吸引力。他擔心,如果缺乏新的和具有挑戰性的任務,我們會覺得永生很乏味。也許我們會感到無聊,就像威廉姆斯懷疑的那樣,但我懷疑我們能預料到在這種情況下我們會是什麼感覺。我個人來說,我很想知道,知道自己可以活到宇宙盡頭是什麼感覺,哪怕是2000年、20萬年或200萬年後!

如果我知道我仍然是我自己,我非常樂意接受各種認知增強。為了安全起見,我會堅持緩慢的生物增強,以免損害生物大腦或在短時間內導致我的能力發生劇烈變化。也許,在做了幾百年自己之後,我會渴望改變,並且我會進行增強,即使知道我可能會結束自己的存在。在這種情況下,我不會真正永生,即使是從功能性永生的意義上來說,但我的“後代”可能會活到宇宙盡頭。

霍根:一些專家,比如加里·馬庫斯,認為人工智慧被過度炒作,可能正走向另一個“人工智慧寒冬”。但在《人工的你》中,你預測,長期以來人們追求的人工“通用”智慧,或稱AGI,可能會在“未來幾十年內”實現。是什麼讓你如此樂觀?

施耐德:我當時試圖用“幾個”這個詞來保持開放性。我很樂意嘗試更具體一些,但首先,我想說,我認為目前關於AGI的討論把很多問題混淆在一起了,“人類水平的人工智慧”是一個誤導性的基準。今天的人工智慧是特定領域的系統——在單個領域表現出色的系統,例如國際象棋或面部識別。通用智慧超越了單純的特定領域處理。人類以及非人類動物(老鼠、貓、烏賊等)都是通用智慧;它們整合跨感官領域的材料,並表現出認知靈活性。

通用性是一個程度問題。事實上,有些人認為人腦更像一把瑞士軍刀,擁有各種特定領域的模組,這些模組不是由中央執行器或類似CPU的結構整合的。也許遙遠的未來的人工智慧系統會比我們更通用,表現出更靈活、跨領域的處理能力以及感覺模式之間更強的相互整合。也許存在外星智慧,它們的大腦表現出比人類大腦更多的整合。所以,也許我們根本不是非常“通用”的認知者!

儘管如此,我懷疑第一代合成通用智慧在某些方面會不如正常的成年人。它們會像學者一樣,在涉及複雜的記憶資料庫、模式識別、數學處理等方面超越我們。我把這些假設的通用智慧稱為“學者系統”,因為它們相對於正常人類而言有各種缺陷。

順便說一句,這對於理解涉及超智慧系統的辯論具有重要意義。根據定義,超智慧是一種假設的機器,它在各個方面都超越我們:科學推理、社交技能等等。尼克·博斯特羅姆、比爾·蓋茨、已故的斯蒂芬·霍金和許多其他人強調,這種系統會帶來危險,因為它們很難控制。如果超智慧人工智慧超越我們,為什麼相信它會堅持我們的道德價值觀?它可能會制定自己的目標,或者以反常的字面方式解釋我們的目標,結果對我們有害。這個問題被稱為“控制問題”。

經過反思,學者系統也存在控制問題,即使它們不是超智慧,而且它們在某些領域(例如,道德判斷)表現出缺陷的事實,可能會使它們比超智慧系統危險得多。

因此,我擔心蓋茨和其他人提出的問題實際上可能會更早出現,在超智慧發展之前。

儘管如此,你可能仍然希望我為人類水平的AGI設定基準。這很棘手,但以下是一些為基準設定工作提供資訊的一些因素。首先,加速AGI建立的一件事是,如果新皮層的區域可能相當均勻,那麼新皮層的不同部分都遵循相同的演算法。因此,如果我們發現一個小區域執行的精確演算法,我們就會對如何構建人工新皮層有很大瞭解。

現在,這裡有一些可能會阻礙它的事情,這與當前人工智慧研究中對深度學習系統的重視有關。正如我的論文導師,著名的AI懷疑論者傑裡·福多爾喜歡問的那樣:認知真的是一種模式識別嗎?今天的深度學習系統是複雜的關聯引擎,它們輸入大量的海量資料,並隨著時間的推移,開發出以令人印象深刻的精度識別模式的演算法。例如,考慮面部識別系統。我們會在深度學習系統中看到類似的令人印象深刻的壯舉嗎?也就是說,認知只是一種模式識別嗎?我對此表示懷疑。

那麼,如果我有這種懷疑,我為什麼要說“幾個”呢?首先,我比福多爾樂觀得多。因為機器學習涉及各種超越單純深度學習資源的程式設計技術。隨著認知科學家發現大腦不同區域計算的神經演算法,我們可以將這些特徵逆向工程到人工智慧中。

其次,雖然發現神經演算法是一項複雜而漫長的研究工作,但我們不必等待完全理解大腦的每個部分。同樣,我不會期望合成通用智慧與我們非常相似。正如Alpha Go透過令人驚訝且不像人類的演算法技術擊敗了世界圍棋冠軍一樣,未來的合成通用智慧也將以我們不熟悉的方式完成許多認知和感知任務。這就是為什麼我不太喜歡“AGI”這個詞——這個詞經常暗示合成通用智慧計算的演算法型別與大腦使用的演算法相同,並且它的行為方式與我們非常相似。相反,它們可能是我所說的“學者系統”。

霍根:在《人工的你》中,你思考了超智慧外星人的可能性。你內心深處認為它們存在嗎

施耐德:如果讓我猜測,微生物生命會很豐富,那裡也會存在高度複雜的生命,甚至是技術先進的文明。天體生物學家聲稱,原則上,那裡有許多適合居住的系外行星。地球似乎並不是那麼特別,所以生命應該在整個銀河系中湧現。事實上,由於地球是一個相對年輕的行星,應該有許多行星的文明比我們的文明更古老。

想想這一切意味著什麼。可能存在一些文明,它們已經或將要創造自己的人工智慧,並增強他們的大腦和身體。在《人工的你》中,我認為宇宙中最偉大的智慧可能是合成的,它們是從曾經像我們一樣的生物文明發展而來的。

因此,我提出的關於激進增強是否與一個人意識和自我的延續相相容的問題,與關於整個宇宙中智慧生命進化的討論息息相關。這既令人清醒又令人驚奇!

延伸閱讀:

我們需要腦植入物來跟上機器人的步伐嗎?

奇點與神經程式碼

整合資訊理論可以解釋意識嗎?

人工智慧如何報道人工智慧會議?

另請參閱與斯科特·阿倫森大衛·艾伯特大衛·查爾莫斯諾姆·喬姆斯基大衛·多伊奇喬治·埃利斯馬塞洛·格萊澤羅賓·漢森裡克·希德尼克·赫伯特吉姆·霍爾特薩賓·霍森菲爾德希拉·賈薩諾夫斯圖爾特·考夫曼萊斯利·基恩克里斯托夫·科赫加勒特·利西克里斯蒂安·利斯特蒂姆·莫德林詹姆斯·麥克萊倫普里揚瓦達·納塔拉詹娜奧米·奧雷斯克斯馬丁·里斯卡洛·羅韋利克里斯·塞爾奇魯珀特·謝爾德雷克彼得·肖爾李·斯莫林謝爾登·所羅門阿米亞·斯里尼瓦桑保羅·斯坦哈特菲利普·特特洛克泰勒·沃爾克史蒂文·溫伯格愛德華·威滕彼得·沃伊特斯蒂芬·沃爾弗拉姆以利沙·尤德科夫斯基卡爾·齊默的問答。

另請參閱我在我的免費線上書籍《心身問題》中對神經科學家克里斯托夫·科赫的簡介

© .