量子計算機現在可以執行像大腦一樣工作的強大人工智慧

使聊天機器人運轉的具有影響力的 AI 設計現在可以在量子計算機上執行

BlackJack3D/Getty 圖片

很少有計算機科學的突破能在如此短的時間內取得如此大的成就,就像被稱為 Transformer 的人工智慧設計一樣。Transformer 是一種深度學習形式——一種基於大腦網路的機器模型——Google 的研究人員在 2017 年首次提出。七年後,Transformer 使 ChatGPT 和其他聊天機器人能夠快速生成複雜的輸出以響應使用者提示,是正在進行的 AI 繁榮的動力。儘管這種 AI 設計已被證明非常出色,但如果可以在量子計算機上執行它會怎麼樣呢?

這聽起來可能像是某個興奮的技術投資者提出的令人喘不過氣的混搭。但量子計算研究人員現在實際上出於純粹的好奇心和讓計算機做新事物的執著願望,正在問這個問題。最近發表在《Quantum》雜誌上的一項新研究使用簡單的硬體表明簡陋的量子 Transformer 確實可以工作,暗示更發達的量子 AI 組合可能解決包括加密和化學在內的關鍵領域中的重要問題——至少在理論上是這樣。

Transformer 的超能力在於它能夠辨別輸入的哪些部分比其他部分更重要,以及這些部分之間的聯絡有多緊密。以句子“She is eating a green apple.”為例。Transformer 可以挑出句子的關鍵詞:“eating”、“green” 和 “apple”。然後,基於在其訓練資料中識別出的模式,它會判斷“eating”這個動作與顏色 “green” 幾乎無關,但與物件 “apple” 關係更大。計算機科學家將此功能稱為“注意力機制”,這意味著它最關注句子中最重要的詞、影像中的畫素或序列中的蛋白質。注意力機制模仿了人類處理語言的方式,執行一項對於大多數幼兒來說都很基本,但直到 ChatGPT 時代,計算機還在努力完成的任務。


關於支援科學新聞

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞事業 訂閱。透過購買訂閱,您正在幫助確保關於塑造我們當今世界的發現和想法的具有影響力的故事的未來。


注意力機制目前在配備強大處理器的超級計算機上執行,但它們仍然使用儲存 0 或 1 值的基本二進位制位。物理學家將這些描述為“經典”機器,其中也包括智慧手機和 PC。另一方面,量子硬體利用量子力學的奇異性來解決對於經典計算機來說太不切實際的問題。這是因為量子位(也稱為 qubits)可以作為 0、1 或 其他可能狀態的頻譜存在。那麼,開發人員能否使用量子位構建更高階的注意力機制?悉尼科技大學的量子計算研究員 Christopher Ferrie 說:“量子計算機預計不會成為計算的萬能藥,但我們只有嘗試了才知道。”他沒有參與這項新研究。

這項研究的作者之一 Jonas Landman 此前曾製作過其他類腦 AI 設計的量子複製品,以便在量子硬體上執行。“我們想研究 Transformer,因為它們似乎是深度學習的最新技術,”Landman 說,他是愛丁堡大學和一家名為 QC Ware 的計算公司的量子計算研究員。在新研究中,他和他的同事改編了一個專為醫學分析設計的 Transformer。他們從一個包含 1600 人視網膜影像的資料庫中(有些是健康眼睛,有些是患有糖尿病引起的失明的人的視網膜),量子模型將每張影像分為五個級別之一,從沒有損傷到最嚴重。

開發他們的量子 Transformer 是一個三步過程。首先,甚至在接觸任何量子硬體之前,他們需要為 Transformer 設計一個量子電路——換句話說,量子程式的“程式碼”。他們製作了三個版本,每個版本在理論上都可以比經典 Transformer 更有效地集中注意力,正如數學證明所證明的那樣。

在數學帶來的信心的鼓舞下,研究作者在量子模擬器(一種在經典硬體上執行的量子位模擬器)上測試了他們的設計。模擬器避免了困擾當今真實量子計算機的一個問題,即量子計算機仍然對熱、電磁波和其他干擾非常敏感,以至於量子位可能會變得混亂或完全無用。

在模擬器上,每個量子 Transformer 對一組視網膜影像進行分類,準確率在 50% 到 55% 之間——高於將視網膜隨機分類到五個類別之一所能達到的 20% 的準確率。50% 到 55% 的範圍與兩個具有更復雜網路的經典 Transformer 實現的準確率水平(53% 到 56%)大致相同。

只有在此之後,科學家才能進入第三步:在真正的 IBM 製造的量子計算機上操作他們的 Transformer,一次最多使用六個量子位。這三個量子 Transformer 的效能仍然在 45% 到 55% 的準確率之間。

六個量子位並不多。為了使可行的量子 Transformer 與 Google 的 Gemini 或 OpenAI 的 ChatGPT 等聊天機器人巨頭相媲美,一些研究人員認為計算機科學家必須建立一個使用數百個量子位的程式碼。這種尺寸的量子計算機已經存在,但由於涉及干擾和潛在錯誤,設計一個相對龐大的量子 Transformer 尚不實用。(研究人員嘗試了更高的量子位數量,但沒有看到同樣的成功。)

該小組並非孤軍奮戰於 Transformer 的研究。去年,IBM 的托馬斯·J·沃森研究中心的研究人員提出了一種稱為圖 Transformer 的 Transformer 型別的量子版本。在澳大利亞,Ferrie 的小組設計了自己的 Transformer 量子電路概念。該團隊仍在進行 QC Ware 透過的第一步:在試用之前對設計進行數學測試。

但是,假設存在一臺可靠的量子計算機——一臺擁有 1000 多個量子位並且干擾在某種程度上保持在最低限度的計算機。那麼,量子 Transformer 總是會具有優勢嗎?也許不會。量子 Transformer 和經典 Transformer 之間的正面比較不是正確的方法,因為兩者可能具有不同的優勢。

首先,經典計算機具有投資和熟悉的優勢。量子計算公司 Xanadu 的軟體主管 Nathan Killoran 說:“即使量子計算技術日趨成熟,量子計算機也需要很多年才能擴充套件到那種規模,而經典計算機在此期間不會停止發展。”他沒有參與這項新研究。“經典機器學習非常強大且資金充足,以至於在我們有生之年,可能根本不值得用像量子計算這樣的新興技術完全取代它。”

此外,量子計算機和經典機器學習各自擅長不同型別的問題。現代深度學習演算法檢測其訓練資料中的模式。量子位有可能學習編碼相同的模式,但尚不清楚它們是否是該任務的最佳選擇。這是因為當量子位要解決的問題是“非結構化”時,它們才能提供最大的優勢,這意味著它的資料首先沒有明確的模式可尋。想象一下,試圖在沒有字母順序或任何順序的電話簿中查詢姓名;量子計算機可以在經典計算機所需時間的平方根時間內找到該單詞。

但這兩種選擇並非互斥。許多量子研究人員認為,量子 Transformer 的理想位置將是作為經典-量子混合系統的一部分。量子計算機可以處理化學和材料科學中更棘手的問題,而經典系統則可以處理大量資料。量子系統也可能在生成資料方面被證明是有價值的——例如,解密的加密金鑰,或尚不存在的材料的屬性(這兩者對於經典計算機來說都很難做到)——這反過來可以幫助訓練經典 Transformer 執行現在仍然很大程度上無法訪問的任務。

量子 Transformer 可能會帶來其他好處。經典 Transformer 在目前使用的規模下消耗大量能量,以至於美國公用事業公司保持排放碳的燃煤電廠運轉,僅僅是為了滿足新資料中心的電力需求。量子 Transformer 的夢想也是更精簡、更高效的機器的夢想,它可以減輕能源負擔。

Rahul Rao 是一位常駐倫敦的自由科學作家,報道物理學、太空、技術及其相互交叉以及與其他一切交叉的領域。他喜歡蛇、舊型別小說、火車和經典《神秘博士》,沒有特定的順序。

更多來自 Rahul Rao 的文章
© .