語言生成人工智慧如何變革科學

一位新興技術專家警告說,旨在像人類一樣總結、翻譯和寫作的軟體可能會加劇對科學的不信任

Portrait of Shobita Parthasarathy

Shobita Parthasarathy 表示,大型語言模型可以幫助推進研究,但它們的使用應受到監管。

傑拉爾德·R·福特公共政策學院/密歇根大學

密歇根大學安阿伯分校新興技術治理專家 Shobita Parthasarathy 表示,能夠從大量文字中生成流暢語言的機器學習演算法可能會改變科學的運作方式——但不一定朝著好的方向發展。

4月27日釋出的一份報告中,Parthasarathy 和其他研究人員試圖預測被稱為大型語言模型 (LLM) 的新興人工智慧 (AI) 技術對社會的影響。這些模型可以生成令人震驚的、令人信服的散文,在語言之間進行翻譯,回答問題,甚至生成程式碼。包括谷歌、臉書和微軟在內的構建這些模型的公司旨在將它們用於聊天機器人和搜尋引擎,以及總結文件。(至少有一家公司 Ought 在加利福尼亞州舊金山試驗將大型語言模型用於研究;它正在構建一個名為“Elicit”的工具,用於使用科學文獻回答問題。)

大型語言模型已經備受爭議。它們有時會鸚鵡學舌般地重複它們所訓練的數百萬或數十億份文件中的錯誤或有問題的刻板印象。研究人員擔心,源源不斷的看似權威的計算機生成語言與人類寫作難以區分,可能會導致不信任和困惑。


關於支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。


Parthasarathy 表示,儘管大型語言模型可以加強理解複雜研究的努力,但它們也可能加深公眾對科學的懷疑。她與《自然》雜誌談論了這份報告。

大型語言模型可能如何幫助或阻礙科學?

我最初認為大型語言模型可能具有民主化和賦能的影響。就科學而言,它們可以使人們能夠快速從資訊中提取見解:例如,透過查詢疾病症狀,或生成技術主題的摘要。

但是,演算法摘要可能會出錯,包含過時的資訊或消除細微差別和不確定性,而使用者卻沒有意識到這一點。如果任何人都可以使用大型語言模型來使複雜的研究變得易於理解,但他們有可能獲得對科學的簡化、理想化的看法,而這種看法與混亂的現實不符,那麼這可能會威脅到專業性和權威性。這也可能加劇公眾對科學的信任問題。而且人們與這些工具的互動將非常個性化,每個使用者都會獲得自己生成的資訊。

問題是否在於大型語言模型可能會引用過時或不可靠的研究,這是一個巨大的問題?

是的。但這並不意味著人們不會使用大型語言模型。它們很誘人,並且它們流暢的輸出以及它們作為令人興奮的新技術的形象將帶有客觀性的外衣。普通使用者可能不會意識到它們有侷限性——它們可能是建立在部分或歷史資料集之上的。

科學家很容易斷言他們很聰明,並且意識到大型語言模型是有用的但不完整的工具——例如,用於開始文獻綜述。儘管如此,這些工具可能會縮小他們的視野,並且可能很難識別大型語言模型何時出錯。

例如,大型語言模型在數字人文科學中可能很有用:總結歷史文字關於特定主題的說法。但是這些模型的過程是不透明的,並且它們沒有在其輸出旁邊提供來源,因此研究人員需要仔細考慮他們將如何使用它們。我看到了一些在社會學中提出的用法,並對一些學者的輕信程度感到驚訝。

誰可能會為科學建立這些模型?

我猜大型科學出版商將最有可能開發特定於科學的大型語言模型(從通用模型改編而來),能夠抓取其論文的專有全文。他們還可以考慮自動化同行評審的某些方面,例如查詢科學文字以找出應該諮詢誰作為審稿人。大型語言模型也可能被用來嘗試挑選出手稿或專利中特別創新的結果,甚至可能幫助評估這些結果。

出版商還可以開發大型語言模型軟體,以幫助非英語國家的 researchers 改進其散文。

當然,出版商可能會達成許可協議,使其文字可供大型公司使用,以納入其語料庫中。但我認為他們更有可能嘗試保持控制權。如果是這樣,我懷疑科學家們會越來越對他們的知識壟斷感到沮喪,並將對此提出異議。基於開放獲取論文和付費牆論文摘要的大型語言模型存在一些潛力。但這可能很難以這種方式獲得足夠數量的最新科學文字。

大型語言模型是否可以用來製作逼真的假論文?

是的,如果容易且他們認為這會有助於他們的職業生涯,那麼有些人會使用大型語言模型來生成虛假或接近虛假的論文。儘管如此,這並不意味著大多數想要成為科學界一份子的科學家將無法就使用大型語言模型的法規和規範達成一致。

應該如何監管大型語言模型的使用?

對我來說,幾乎沒有任何人工智慧工具經過系統的法規或標準維護機制,這很令人著迷。大型語言模型也是如此:它們的方法是不透明的,並且因開發者而異。在我們的報告中,我們建議政府機構介入進行一般監管。

特別是對於大型語言模型在科學中的可能用途,透明度至關重要。開發大型語言模型的那些人應該解釋使用了哪些文字以及所涉及的演算法邏輯——並且應該明確說明是否使用了計算機軟體來生成輸出。我們認為,美國國家科學基金會也應該支援開發一個基於所有公開可用的科學文章進行訓練的大型語言模型,涵蓋廣泛的領域。

科學家應該警惕期刊或資助者依賴大型語言模型來尋找同行評審員,或者(可能)將此過程擴充套件到評審的其他方面,例如評估手稿或資助申請。因為大型語言模型傾向於過去的資料,所以它們的建議可能過於保守。

本文經許可轉載,首次發表於 2022年4月28日。

© .