會見末日智庫的聯合創始人

馬丁·里斯,天體物理學家和生存風險研究中心創始成員,談論區分科幻小說與真實的末日可能性

加入我們的科學愛好者社群!

今年,自2012年以來,“末日時鐘”首次向前撥動。這個理論上對災難的倒計時是由《原子科學家公報》於67年前制定的,該組織是由參與曼哈頓計劃的科學家於1945年建立的監督機構。其當代的管理者已根據氣候變化和裁軍放緩的威脅,將時鐘撥快了三分鐘,更接近午夜。

但全球變暖和核陰霾並非人類面臨的唯一威脅。一個組織正在關注新興技術可能帶來的潛在威脅——甚至沒有人考慮過的危險。“生存風險研究中心”(CSER)於2012年在劍橋大學成立,旨在開發科學方法來評估新的全球風險——例如,確定機器人接管地球的情景是科幻小說還是現實的可能性。包括斯蒂芬·霍金、雅安·塔林(Skype的創始工程師)和哲學家休·普萊斯在內的一些世界上最偉大的思想家為這項事業做出了貢獻。

《大眾科學》採訪了該中心的聯合創始人之一,天體物理學家馬丁·里斯勳爵,以思考我們所知的生命可能終結的方式。以下是編輯後的節選。


關於支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續報道關於塑造我們當今世界的發現和想法的有影響力的故事。


為什麼要成立一個深入研究新技術威脅的組織?
縱觀歷史,我們的祖先都面臨著風險:瘟疫、風暴、地震和人為災難。但本世紀有所不同。這是第一個由一個物種(我們人類)能夠決定地球的未來、威脅我們的文明並危及後代生存的世紀。

你們研究哪些型別的場景?
目前,專家們對於機率和影響都存在很大分歧。氣候科學家們對於是否存在可能導致災難的臨界點存在分歧。人工智慧專家們的觀點也存在很大差異:一些人認為,擁有自主意識(以及與人類目標無關的目標)的人工智慧可能會在本世紀中葉之前發展出來;另一些人則認為這種前景非常渺茫,並認為我們應該將關注點放在“愚蠢”的自主機器人(例如,軍用無人機)的倫理和安全上。生物科技的前沿領域也已經展開了激烈的辯論。我希望 CSER 能夠幫助就哪些風險最真實達成更堅定的共識,並幫助將這些風險提上議事日程。

您認為人類面臨的主要風險是什麼?它們有多嚴重?
我個人對社會應對生物技術進步的能力持悲觀態度。在 20 世紀 70 年代,分子生物學的先驅們在阿西洛馬會議上著名地制定了重組 DNA 的指南。今天,這些問題更加突出地出現。目前,人們對新技術的倫理和審慎性存在爭論和焦慮:病毒的“功能增益”實驗以及所謂的 CRISPR 基因編輯技術的使用。與 20 世紀 70 年代相比,現在的社會更加全球化、更具競爭力,也更容易受到商業壓力的影響。我擔心,無論可以做什麼,都會在某個地方被某人完成。即使有正式商定的協議和法規,它們也像毒品法一樣難以執行。在我的個人中期(10 到 20 年)風險登記表中,生物錯誤和生物恐怖主義的風險最高。

有沒有什麼人們擔心的事情是不應該擔心的?
許多生活在發達國家的人們對較小的風險(食物中的致癌物、低劑量輻射、飛機墜毀等等)過於擔心。有些人對小行星撞擊過於擔心,而小行星撞擊是自然風險中瞭解最透徹、最容易量化的風險之一。而且,很快就可以透過偏轉飛向地球的小行星的路徑來降低這種風險。這就是我支援 B612 Sentinel 專案的原因。

更應該讓我們擔心的是新出現的威脅。它們當然更值得關注,而這正是 CSER 旨在研究的內容。一個重要的格言是,不熟悉並不等同於不可能。風險太高了,即使我們能將災難發生的機率降低百萬分之一,我們也算沒有白費功夫。

© .