不要對人工智慧感到恐慌

相反,專注於使人工智慧可控並響應人類需求

加入我們的科學愛好者社群!

本文發表於《大眾科學》的前部落格網路,反映了作者的觀點,不一定反映《大眾科學》的觀點


傳說,中世紀哲學家和方濟各會修士羅吉爾·培根創造了一個全知的人工大腦,並將其包裹在一個青銅製、類人頭的裝置中。故事說,培根希望利用從這個“青銅頭顱”中收集到的見解,確保英國永遠不會被征服。

繼培根之後,工程師和計算機科學家長期以來的挑戰一直是構建一個基於矽的、可以媲美甚至超越人類智慧的大腦複製品。這一雄心壯志促使我們去想象,如果我們成功創造出下一代能夠為我們思考、夢想和推理的計算機系統,我們可能會做些什麼。

今天,人們很少談論青銅頭顱,但人工智慧似乎無處不在。雜誌和報紙文章無休止地宣傳它,大致以相同的程度引發了期望和恐懼。


關於支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。


某些形式的人工智慧確實正變得無處不在。例如,演算法在我們金融市場上執行大量的交易,自動駕駛汽車開始在城市街道上導航,我們的智慧手機正在從一種語言翻譯成另一種語言。這些系統有時比我們人類更快、更敏銳。但到目前為止,這隻適用於系統被設計的特定任務。這是現在一些人工智慧開發者渴望改變的事情。

當今的一些人工智慧先驅希望從今天的“弱”或“狹義”人工智慧世界走向“強”或“完全”人工智慧,或者通常被稱為通用人工智慧(AGI)的世界。在某些方面,今天強大的計算機器已經讓我們的大腦顯得渺小。它們可以儲存大量資料,以極快的速度處理資料,並與地球上所有其他計算機即時通訊。如果這些裝置能夠配備以更靈活的方式工作的通用人工智慧演算法,那麼機會將是巨大的。

通用人工智慧,其支持者說,可以勤奮地為我們工作,全天候工作,並利用所有可用的資料,為許多迄今為止已被證明難以解決的問題提出解決方案。它們或許可以幫助提供有效的預防性醫療保健,避免股市崩盤或防止地緣政治衝突。谷歌的DeepMind公司專注於通用人工智慧的開發,其目標是“解決智慧”這一宏偉目標。“如果我們成功了,”他們的使命宣言寫道,“我們相信這將是有史以來最重要和最廣泛有益的科學進步之一。”

自人工智慧的早期以來,想象力已經超越了可能甚至可能實現的程度。1965年,一位富有想象力的數學家歐文·古德,他曾是二戰期間在布萊切利公園破譯密碼團隊中艾倫·圖靈的同事,預測了最終會創造出“超智慧機器……它可以遠遠超越任何人的所有智力活動,無論這個人多麼聰明”。他預測,這樣一臺機器將能夠將其巨大的智慧用於改進自身——每次調整都會提高其增強自身能力的能力,從而導致快速加速的正反饋迴圈。“然後無疑會出現‘智慧爆炸’,”古德寫道,“人類的智慧將被遠遠拋在後面。”

古德接著提出,“第一臺超智慧機器”可能是“人類需要製造的最後一項發明”。這引出了雷·庫茲韋爾提出的所謂“技術奇點”的概念,他認為超智慧計算機的到來將是我們歷史上的一個關鍵轉折點,此後將爆發技術和智力才能,這將改變存在的方方面面。古德在他的“最後一項發明”預測中增加了一個重要的限定條件:我們能夠收穫其益處的想法“前提是這臺機器足夠溫順,可以告訴我們如何控制它”。

對惡性、強大、人造智慧機器降臨的恐懼已被許多虛構作品所強化——例如,瑪麗·雪萊的《弗蘭肯斯坦》和《終結者》電影系列。但如果人工智慧最終被證明是我們的垮臺,那不太可能是像這些人類形態的人造物造成的,它們具有可識別的人類動機,如侵略或報復。

相反,我同意牛津大學哲學家尼克·博斯特羅姆的觀點,他認為通用人工智慧最嚴重的風險不是來自反對人類的決定,而是來自不顧一切地追求既定目標,不惜一切代價。伯克利人工智慧研究員斯圖爾特·羅素總結了他認為這個問題的核心:“例如,如果你說,‘我希望我觸控到的一切都變成金子’,那麼這正是你將會得到的,然後你會後悔的。”如果計算機真的變得非常智慧,那麼沒有理由期望它們會分享人們會認為是正義或同情心的任何能力。

真正通用人工智慧的前景和危險都是巨大的。但是,所有今天關於這些可能性的激動人心的討論都預設了我們將能夠構建這些系統這一事實。而且,在與世界上許多最傑出的人工智慧研究人員交談之後,我們有充分的理由懷疑我們是否會在不久的將來看到通用人工智慧,甚至永遠不會看到。

羅素認為,“我們離擁有任何你可以識別為通用智慧的東西還有幾個演算法突破的距離。”騰訊公司前人工智慧研究主管張潼也同意:“如果你想要通用人工智慧,當然有很多障礙需要克服。”麻省理工學院機器人專家辛西婭·佈雷澤爾說:“我只是在不久的將來看不到任何跨領域的通用超級智慧的實際驅動因素。” Beyond Limits公司的馬克·詹姆斯也懷疑是否有人真的在開發真正的通用人工智慧,他說,“為了讓人工智慧領域真正進步到擁有真正類人思維機器的程度,我們需要從頭開始重新思考這個問題。”

我認為詹姆斯是對的——畢竟,我們怎麼能設計出我們甚至無法定義的東西呢?我們從未真正弄清楚自然人類智慧是什麼,所以不清楚工程師們試圖在機器中模仿什麼。與其說智慧是一個單一的物理引數,不如說智慧有很多型別,包括情感智慧、音樂智慧、運動智慧和數學智慧。劍橋大學教授兼Uber首席科學家祖賓·加拉曼尼也同意:“我實際上不認為存在通用智慧這樣的東西,”他告訴我。如果不存在通用智慧這樣的東西,那麼就既沒有希望用合成部件也沒有希望用生物部件來構建它。加拉曼尼更進一步,認為“我們對智慧的看法是‘前哥白尼式的’。”正如地球不是我們太陽系的中心一樣,人腦也不代表智慧的頂峰。

所有這一切意味著,即使我們能夠模仿人腦的智慧,那也未必是通往強大形式的通用人工智慧的最佳途徑。正如加州大學伯克利分校的著名人工智慧研究員邁克爾·喬丹指出的那樣,土木工程的發展不是透過試圖創造人工砌磚工或木匠來實現的,化學工程也不是源於創造人工化學家,那麼為什麼有人會相信資訊工程的大部分進展應該來自試圖構建人工大腦呢?

相反,我認為工程師應該將他們的想象力引導到構建以我們無法想象的方式思考的計算機系統:處理不確定性,透過考慮成千上萬甚至數百萬個不同的變數來計算風險,並整合來自許多不同來源的大量結構不良的資料。

這一切都不是為了否定日益適應性強的人工智慧演算法的力量,也不是為了忽視它們有一天可能透過意想不到的副作用或惡意應用帶來的風險。但是,如果我們有理由相信,具有廣義類人智慧的機器是不可能的,那麼許多關於人工智慧的擔憂就會煙消雲散;沒有必要在人工智慧系統的執行中寫入任何嚴格定義的道德準則或價值體系。相反,我們的目標應該是使它們可控且對我們的需求高度響應。許多一流的研究人員和思想家正在投入大量時間和精力來預防與人工智慧相關的問題,使其在出現之前就得到解決。

羅素認為,使人工智慧系統更安全、更強大的關鍵在於使其目標本質上不明確,或者用計算機科學術語來說,是將不確定性引入其目標。正如他所說,“我認為我們實際上必須從基礎上重建人工智慧。已經建立的基礎是理性[類人]主體對目標的最佳化。這只是一個特例。”羅素和他的團隊正在開發演算法,這些演算法將積極尋求向人們學習他們想要實現什麼以及哪些價值觀對他們重要。他描述了這樣一個系統如何提供一些保護,“因為你可以證明一臺對其目標不確定的機器願意,例如,被關閉。”

像這樣的工作很重要,特別是因為羅素和他的合作者不僅僅是在指出定義不清的風險,而且還在提出具體的解決方案和保障措施。這就是斯坦福大學人工智慧教授、谷歌雲前負責人李飛飛對我說“僅僅宣揚一種[關於人工智慧的]反烏托邦是不健康的。宣揚一種深思熟慮的資訊要負責得多”的意思。

如果在 20 世紀早期物理學的巨大飛躍中提出的唯一資訊是對迫在眉睫的核末日的可怕警告,那麼我們現在就不會擁有所有源於我們對原子結構和量子力學的理解的驚人發現。與人工智慧相關的風險必須保持在適當的範圍內,並透過建設性的行動和監管來應對,而不是憂心忡忡和杞人憂天。

在極度樂觀和令人恐懼的悲觀之間,存在著人工智慧更現實的未來。早在計算機達到任何接近超智慧的程度之前,它們將繼續以影響深遠且難以預測的方式改變我們的生活和思維方式。隨著我們的計算機變得更智慧,人類也將變得更智慧、更有能力。我們將需要機器產生的處理能力和日益智慧的見解來應對我們最緊迫的全球挑戰——從應對氣候變化到治癒癌症——並尋求解答關於我們自身以及我們在更廣闊宇宙中的位置的最深刻的問題。

儘管中世紀鍊金術士羅吉爾·培根努力嘗試,但工程師迄今為止在嘗試以機器形式模仿人腦方面均告失敗。他們很可能永遠不會成功實現這一雄心壯志。但這種失敗是無關緊要的。無論今天先進的人工智慧系統以截然不同於人類的方式思考這一事實如何,它們都是我們構建的最強大的工具之一。如果我們明智而負責任地運用它們,它們可以幫助我們為全人類建設更美好的未來。

Lord John Browne, trained as a professional engineer, was group chief executive of BP from 1995 to 2007, where he built a reputation as a visionary leader, transforming BP into one of the world's most successful companies. He is now the executive chairman of L1 Energy. He is the author of Make, Think, Imagine: Engineering the Future of Civilization, published in August 2019.

More by John Browne
© .