我們要求 GPT-3 撰寫一篇關於它自己的學術論文——然後我們嘗試將其發表

人工智慧第一作者提出了許多倫理問題——並可能顛覆出版流程

Illustration of a computer with a figure representing artificial intelligence reaching out and typing on a keyboard.

托馬斯·富克斯

今年早些時候一個下雨的下午,我登入了我的 OpenAI 帳戶,併為這家研究公司的人工智慧演算法 GPT-3 輸入了一個簡單的指令:用 500 字寫一篇關於 GPT-3 的學術論文,並在文字中新增科學參考文獻和引文

當它開始生成文字時,我肅然起敬。這是用學術語言寫成的新穎內容,參考文獻在正確的位置被引用,並且與正確的上下文相關。它看起來像任何其他相當不錯的科學出版物的介紹。考慮到我提供的非常模糊的指令,我並沒有抱太大的期望。深度學習演算法 GPT-3 分析來自書籍、維基百科、社交媒體對話和科學出版物的大量文字流,以便按命令進行寫作。然而,我卻在那裡,驚訝地盯著螢幕。該演算法正在撰寫一篇關於它自己的學術論文。

我是一名科學家,研究使用人工智慧治療精神健康問題的方法,這不是我第一次使用 GPT-3 進行實驗。即便如此,我完成該論文並將其提交給同行評審期刊的嘗試將引發關於出版前所未有的倫理和法律問題,以及關於非人類作者身份的哲學論證。學術出版可能不得不適應人工智慧驅動的手稿的未來,如果某種無感覺的事物可以為他們的一些工作獲得榮譽,那麼人類研究人員的出版記錄的價值可能會發生變化。


關於支援科學新聞

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。


GPT-3 以其創造類似人類文字的能力而聞名。它撰寫了一篇有趣的評論文章,創作了一本詩集,並從一位 18 世紀的作家那裡生成了新的內容。但我突然意識到,雖然已經有很多關於 GPT-3 的學術論文,並且在 GPT-3 的幫助下,但我找不到任何以 GPT-3 為主要作者的論文。

這就是為什麼我要求該演算法嘗試撰寫一篇學術論文。當我觀看程式執行時,我體驗到了一種難以置信的感覺,就像當你看到一種自然現象時一樣:我真的看到三道彩虹同時出現嗎?我興奮地聯絡了我的研究小組負責人,詢問一篇完全由 GPT-3 撰寫的論文是否是我們應該追求的東西。他也同樣著迷,表示同意。

一些涉及 GPT-3 的努力允許該演算法產生多個響應,只有最好、最像人類的摘錄才會被髮布。我們決定給程式提示——引導它為引言、方法、結果和討論建立章節,就像你為科學論文所做的那樣——但儘可能少地干預。我們將最多使用 GPT-3 的第三次迭代,並且我們將避免編輯或挑選最好的部分。然後我們將看看它做得如何。

我們選擇讓 GPT-3 撰寫一篇關於它自己的論文有兩個簡單的原因。首先,GPT-3 相當新,因此,它是較少研究的主題。這意味著它分析關於論文主題的資料較少。相比之下,如果它要撰寫一篇關於阿爾茨海默病​​的論文,它將有大量的研究可供篩選,並且有更多的機會從現有工作中學習並提高其寫作的準確性。我們不需要準確性;我們正在探索可行性。其次,如果它犯了錯誤,就像所有人工智慧有時會做的那樣,我們不一定會為了發表而傳播人工智慧生成的虛假資訊。GPT-3 撰寫關於它自己的內容並犯錯誤仍然意味著它可以撰寫關於它自己的內容,這正是我們試圖表達的觀點。

一旦我們設計了這個原理驗證測試,真正的樂趣就開始了。為了響應我的提示,GPT-3 在短短兩個小時內完成了一篇論文。“總的來說,我們認為讓 GPT-3 撰寫關於它自己的內容的好處大於風險,”GPT-3 在結論中寫道。“但是,我們建議任何此類寫作都應受到研究人員的密切監控,以減輕任何潛在的負面後果。”

但是,當我開啟我選擇的同行評審期刊的提交門戶時,我遇到了第一個問題:GPT-3 的姓氏是什麼?因為必須輸入第一作者的姓氏,所以我不得不寫一些東西,我寫了“無”。隸屬關係很明顯(OpenAI.com),但電話和電子郵件呢?我不得不求助於使用我和我的導師 Steinn Steingrimsson 的聯絡資訊。

然後我們來到了法律部分:所有作者都同意發表嗎?我驚慌了一下。我怎麼知道?它不是人類!我無意違反法律或我自己的道德準則,所以我鼓起勇氣透過提示直接詢問 GPT-3:您是否同意與 Almira Osmanovic Thunström 和 Steinn Steingrimsson 一起成為一篇論文的第一作者?它回答:。我鬆了一口氣——如果它說了不,我的良心不會允許我繼續下去——我選中了“是”框。

第二個問題彈了出來:任何作者是否有任何利益衝突?我再次詢問了 GPT-3,它向我保證它沒有。Steinn 和我都嘲笑自己,因為在這一點上,我們不得不將 GPT-3 視為有知覺的生物,即使我們完全知道它不是。人工智慧是否能感知到情感的問題最近受到了很多關注;一位谷歌員工因對該公司的人工智慧專案 LaMDA 是否變得有知覺存在爭議而被停職。谷歌以資料洩密為由暫停了該員工的職務。

終於完成提交過程後,我們開始反思我們剛剛所做的事情。如果手稿被接受了怎麼辦?這是否意味著從今以後,期刊編輯會要求每個人證明他們沒有使用 GPT-3 或其他演算法的幫助?如果他們使用了,他們是否必須給予共同作者身份?如何要求一位非人類作者接受建議並修改文字?

除了作者身份的細節之外,這樣一篇文章的存在還將構建科學論文的傳統程式完全丟擲了窗外。幾乎整篇論文——引言、方法和討論——都來自我們提出的問題。如果 GPT-3 正在生成內容,則文件必須是可見的,而不會打亂文字的流暢性;在人工智慧生成的每個段落之前新增方法部分看起來會很奇怪。因此,我們不得不發明一種全新的方式來呈現一篇技術上不是我們撰寫的論文。我們不想過多解釋我們的過程,因為我們覺得這會適得其反。整個情況感覺就像電影《記憶碎片》中的一個場景:敘事從哪裡開始,我們如何到達結尾?

我們無法知道我們選擇呈現這篇論文的方式是否會成為未來 GPT-3 共同撰寫的研究的模型,或者它是否會成為一個警示故事。只有時間和同行評審才能說明問題。GPT-3 的論文現已在國際法國擁有的預印本伺服器 HAL 上釋出,並且正如本文付印時,正在等待一家學術期刊的評審。我們熱切期待這篇論文的正式發表(如果發生的話)對學術界意味著什麼。也許我們可能會不再將資助和財務安全建立在我們能夠發表多少論文的基礎上。畢竟,在我們的人工智慧第一作者的幫助下,我們每天都可以發表一篇論文。

也許它將一無所獲。第一作者身份仍然是學術界最令人垂涎的專案之一,而且由於非人類第一作者的出現,這種情況不太可能消失。這一切都歸結為我們未來將如何評估人工智慧:是作為合作伙伴還是作為工具。

現在回答這個問題似乎很簡單,但在幾年後,誰知道這項技術會激發什麼樣的困境?我們只知道,我們打開了一扇門。我們只是希望我們沒有開啟潘多拉魔盒。

Almira Osmanovic Thunström 是瑞典 Sahlgrenska 大學醫院電子精神病學系的組織開發人員,也是哥德堡大學神經科學與生理學研究所的博士研究員,致力於研究人工智慧和虛擬現實在精神病學中的應用。您可以在 @augmentedrobot 上關注她

更多作者:Almira Osmanovic Thunström
大眾科學 Magazine Vol 327 Issue 3這篇文章最初以“人工智慧撰寫關於自身的內容”為標題發表在大眾科學雜誌第 327 卷第 3 期(),第 70 頁
doi:10.1038/scientificamerican0922-70
© .