過度信任人工智慧對科學程序構成意想不到的威脅

“讓人類參與其中”至關重要,以避免在研究中將機器學習模型擬人化

Illustration of Lisa Messeri and Molly Crockett

希德·甘德哈里扎德

機器學習模型正迅速成為科學研究中的常用工具。這些人工智慧系統正在幫助生物工程師發現新的潛在抗生素,獸醫解讀動物的面部表情,紙莎草學家閱讀古代卷軸上的文字,數學家解決令人困惑的難題,以及氣候學家預測海冰運動。一些科學家甚至正在探索大型語言模型作為心理學和行為研究中人類參與者的替代品或替代者的潛力。最近的一個例子是,計算機科學家讓ChatGPT經歷了米爾格拉姆電擊實驗的條件——一項始於1961年的關於服從性的研究,在該研究中,當被權威人物告知時,人們會給一個看不見的人施加他們認為越來越痛苦的電擊——以及其他著名的心理學研究。人工智慧模型的反應與人類相似:75%的模擬參與者施加了300伏或更高的電擊。

但是,依賴這些機器學習演算法也存在風險。其中一些風險是普遍公認的,例如生成式人工智慧偶爾會產生“幻覺”(事實不準確或胡說八道)。人工智慧工具也可能複製甚至放大人類對種族和性別等特徵的偏見。而人工智慧熱潮催生了複雜、萬億變數的模型,需要耗水和耗能的資料中心,這可能會帶來高昂的環境成本。

一個很大的風險不太明顯,但可能非常重要:人類傾向於將大量的權威和可信度歸因於機器。最近發表在《自然》雜誌上的一篇論文指出,這種錯位的信任可能在人工智慧系統用於研究時引起嚴重問題


支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您正在幫助確保有關當今塑造我們世界的發現和思想的具有影響力的故事的未來。


“這些工具正在被擬人化,並被描繪成類人和超人。我們有可能不恰當地將信任擴充套件到人工智慧產生的資訊,”普林斯頓大學的認知心理學家和神經科學家,同時也是該研究的合著者莫莉·克羅克特說。耶魯大學的社會文化人類學家麗莎·梅塞裡與克羅克特共同撰寫了這篇論文,她說,人工智慧模型是人造產品,它們“代表了開發它們的人的觀點和立場”。《大眾科學》與兩位研究人員進行了交談,以更多地瞭解科學家使用人工智慧的方式——以及過度信任這項技術的潛在影響。

以下是採訪的編輯稿。

您為什麼撰寫這篇論文?

麗莎·梅塞裡:[克羅克特]和我開始看到並分享人工智慧可以為科學流程和科學界提供的各種宏偉的承諾。當我們真正開始認為我們需要寫些什麼時,是我們看到有說法稱大型語言模型可以成為研究中人類受試者的替代品。鑑於我們多年的對話,這些說法似乎是錯誤的。

莫莉·克羅克特:我自己在研究中使用了機器學習好幾年了,人工智慧的進步使科學家能夠提出我們以前無法提出的問題。但是,當我進行這項研究並觀察到同事們的熱情時,我產生了一種難以擺脫的不安感。

除了使用大型語言模型來取代人類參與者之外,科學家們還如何考慮部署人工智慧?

克羅克特:之前,我們幫助撰寫了一篇回應,回應了[《美國國家科學院院刊》]中的一篇研究,該研究聲稱機器學習可以僅從論文中的文字來預測研究是否[可重複]。這讓我們覺得在技術上是不可信的。但更廣泛地說,我們發現科學家們正在談論使用人工智慧工具使他們的工作更客觀、更高效。

我們發現,這兩個目標都相當冒險,並且使科學家們有可能在理解較少的情況下產出更多。令人擔憂的是,我們可能會認為這些工具正在幫助我們更好地理解世界,但實際上,它們可能會扭曲我們的觀點。

梅塞裡:我們將我們在評論中觀察到的人工智慧用途分為四類:“替代者”、“先知”、“量化者”和“仲裁者”。“替代者”是我們已經討論過的——它取代了人類受試者。“先知”是一種人工智慧工具,它被要求綜合現有的研究語料庫併產生一些東西,例如評論或新的假設。“量化者”是科學家用來處理大量資料的AI——可能由那些機器替代者產生。人工智慧“仲裁者”就像克羅克特提到的《美國國家科學院院刊》複製研究中描述的工具——用於評估和採納研究的工具。我們將這些視為人工智慧的願景,因為它們今天不一定以成功或清晰的方式執行,但它們都在被探索和提出。

您已經指出,即使人工智慧的幻覺和其他技術問題得到解決,風險仍然存在。

克羅克特:我們使用的總體隱喻是單一栽培的想法,它來自農業。單一栽培非常高效。它們提高了生產力。但是它們很容易受到害蟲或疾病的侵襲;當您進行單一栽培而不是種植多樣化的作物時,您更有可能損失全部作物。科學的單一栽培也容易受到風險的影響,例如錯誤在整個系統中傳播。對於人工智慧研究中的基礎模型尤其如此,其中一個基礎設施被跨多個領域使用和應用。如果該系統中存在某些錯誤,則可能會產生廣泛的影響。

我們確定了兩種科學單一栽培,它們可能隨著人工智慧的廣泛採用而出現。第一種是知識的單一栽培。人工智慧工具適合回答某些型別的問題。由於這些工具提高了生產力,因此正在探索的總體研究問題集可能會根據人工智慧擅長的領域進行調整。

然後是知識生產者的單一栽培,人工智慧工具開始取代人類思想家。並且由於人工智慧工具具有特定的立場,因此這種轉變消除了研究生產中人類觀點的多樣性。當有多種思維方式的人處理一個問題時,您更有可能發現錯誤的假設或錯失的機會。兩種單一栽培都可能導致認知錯覺。

您所說的“錯覺”是什麼意思?

梅塞裡:心理學中已經存在的一個例子是解釋深度的錯覺。基本上,當您社群中的某人聲稱他們知道某事時,您傾向於假設您也知道這件事。

在您的論文中,您引用研究表明,使用搜索引擎會讓人誤以為自己知道某事,而實際上他們只是在線訪問該知識。而使用人工智慧輔助工具回答測試問題的學生最終會認為他們比實際更瞭解某個主題。

梅塞裡:沒錯。在解釋深度錯覺的基礎上,我們還確定了另外兩個。一個是探索廣度的錯覺,即有人認為他們正在檢查比實際更多的東西。關於科學和世界,我們可以提出無數的問題。我們擔心,隨著人工智慧的擴充套件,人工智慧擅長回答的問題將被誤認為是人們可以提出的整個領域的問題。然後是客觀性錯覺的風險。要麼是假設人工智慧代表所有立場,要麼是假設人工智慧根本沒有立場。但歸根結底,人工智慧工具是由來自特定視角的人類創造的。

科學家如何避免陷入這些陷阱?我們如何減輕這些風險?

梅塞裡:在機構層面,大學和出版商決定研究方向。這些機構正在與人工智慧公司建立夥伴關係。我們必須對這背後的動機非常謹慎。一種緩解策略是坦誠地說明人工智慧的資金來自何處,以及誰從對其所做的工作中受益。

克羅克特:在機構層面,資助者、期刊編輯和大學可以注意發展多樣化的研究組合,以確保他們不會將所有資源投入到使用單一人工智慧方法的研究中。未來,可能有必要有意識地保護無法用人工智慧工具解決的研究型別的資源。

哪些型別的研究是這樣的?

克羅克特:嗯,就目前而言,人工智慧無法像人類一樣思考。任何關於人類思想和行為的研究,以及定性研究,都無法用人工智慧工具解決。

您會說,在最壞的情況下,人工智慧對人類科學知識的生產構成了生存威脅嗎?還是這言過其實了?

克羅克特:我不認為這言過其實。我認為我們正處於一個十字路口:我們如何決定什麼是知識,以及我們如何在知識生產的努力中前進?

您認為公眾真正瞭解人工智慧和科學研究正在發生的事情,還有其他重要的內容嗎?

梅塞裡:從閱讀媒體對人工智慧的報道的角度來看,這似乎是科學和技術發展中某種註定的、不可避免的“進化”。但作為一名科學技術人類學家,我真的想強調,科學和技術並非朝著不可避免的方向發展。它始終是人類驅動的。這些不可避免性的敘事本身就是人類想象力的產物,並且來自於將某些人的渴望誤認為所有人的預言。每個人,即使是非科學家,也可以透過想象可能實現的不同的未來來參與質疑這種不可避免性的敘事。

克羅克特:對科學中的人工智慧持懷疑態度並不需要成為科學中人工智慧的反對者。我們熱愛科學。我對它在科學方面的潛力感到興奮。但僅僅因為人工智慧工具被用於科學並不意味著它自動就是更好的科學。

作為科學家,我們被訓練去否認我們的人性。我們被訓練去認為人類的經驗、偏見和觀點在科學方法中沒有地位。自主人工智慧“自動駕駛”實驗室的未來是實現這種訓練的頂峰。但是,我們越來越看到證據表明,進行科學研究的人類思想、經驗和訓練的多樣性對於產生穩健、創新和創造性的知識至關重要。我們不想失去這一點。為了保持科學知識生產的活力,我們需要讓人類參與其中。

© .