人工智慧已經滲透到我們日常生活的方方面面,無論是令人毛骨悚然的逼真深度偽造,還是帶有“人工智慧撰寫”標籤的線上新聞,亦或是可以診斷健康狀況的新型工具。 我們會感覺我們所做的一切都透過某種軟體執行,由某個神秘的程式解釋,並儲存在某個不知名的伺服器上。 機器人何時才會接管一切? 它們已經接管了嗎?
人工智慧的最新發展提出了存在主義的問題,這些問題自我們提筆寫作以來就一直困擾著我們:這是誰寫的,我能信任它嗎? 假新聞已是舊聞,但仍然有人爭論莎士比亞是否存在,還是代表了多位作者。 大型語言模型 (LLM) 是作者的組合,每位作者都有自己的風格、聲音和專業知識。 如果生成式人工智慧程式 ChatGPT 不斷嘗試——並且我們不斷地給它輸入莎士比亞的作品——它會寫出我們下一個偉大的悲劇嗎?
美國大學的語言學家 Naomi S. Baron 多年來一直關注人工智慧領域。 在她的最新著作《誰寫了這篇文章?人工智慧和效率的誘惑如何威脅人類寫作》中,她深入探討了問題的核心:如果我們將文字交給人工智慧,我們會失去什麼? 《大眾科學》就人工智慧出現後書面交流的所有權和可信度問題採訪了 Baron。
關於支援科學新聞事業
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞事業 訂閱。 透過購買訂閱,您正在幫助確保未來能夠繼續講述關於塑造我們當今世界的發現和思想的具有影響力的故事。
[以下是經過編輯的訪談記錄。]
你用 ChatGPT 寫過這本書的任何部分嗎?
有一點,但只是少許。 我在 2022 年 11 月中旬完成了《 誰寫了這篇文章?》,那時距離 ChatGPT 問世還有兩週。 我理所當然地認為需要加入一些關於這個新奇機器人的內容。
我的解決方案是向 ChatGPT 詢問這種尖端人工智慧形式與創造力、教育和版權等問題的交叉點。 在書中,我引用了 ChatGPT 的一些回應。
當我問 ChatGPT 是否可以擁有其創作的短篇小說的版權時,第一次的答案是“否”,第二次是“是”。 這種差異反映了程式所使用的特定資料集部分。 對於“否”的回答,ChatGPT 告訴我,作為一個 LLM,它“沒有能力持有版權或擁有任何形式的智慧財產權”。
根據美國版權法,這是真的。 但對於“是”的回答,該機器人引用了美國版權的其他方面:“為了使作品受到版權保護,它必須是原創的並且以有形形式固定下來,例如被書寫或記錄下來。 [ChatGPT 說],如果 GPT 寫的短篇小說符合這些標準,那麼它就有資格獲得版權保護。”
一致性是大型語言模型的難題。
在考慮人工智慧撰寫的新聞時,這是否只是一個蛇吞噬自己尾巴的迴圈? 人工智慧寫作是否只是用來訓練其他人工智慧的素材?
你說得對。 對於大型語言資料集而言,唯一相關的事情是擁有可供消費的文字。 人工智慧沒有感知能力,也無法關心來源。
但是,當我的機器人與你的機器人對話時,人類的交流會發生什麼? 微軟、谷歌和其他公司正在構建注入人工智慧的電子郵件功能,這些功能越來越多地“讀取”我們收件箱中的內容,然後為我們起草回覆。 今天的人工智慧工具可以學習你的寫作風格,並生成你可能自己寫的東西的合理副本。
我擔心的是,以節省時間和最小化努力為名,屈服於這種誘惑太容易了。 無論是什麼讓我們成為人類,使用文字和語法來表達我們的思想和感情的能力都是這種本質的關鍵組成部分。
在你的書中,你寫道,“我們馴化技術。” 但對於人工智慧來說,“馴化”是什麼樣的?
想想我們的犬類夥伴。 它們起源於狼,並且經過多年的進化,它們的一些物種才進化成狗,被馴化。
社會科學家談論技術的“馴化”。 四十年前,個人電腦還是新奇事物。 現在它們已經無處不在,執行在它們之上的軟體程式也是如此。 甚至維基百科——曾經被視為可疑的資訊來源——也已被馴化。
我們理所當然地認為拼寫檢查、自動完成和預測文字等編輯工具是理所當然的。 翻譯程式也是如此。 尚待觀察的是,我們將如何馴化文字生成程式,例如 ChatGPT,它可以從虛擬的無到有地建立文件。
你對人工智慧和 LLM 的理解如何改變了你閱讀和寫作的方式?
三年變化真大! 對於我自己的寫作,我仍然很老派。 我有時仍然手寫草稿。 相比之下,作為一名大學教授,我改變了我對待學生書面作業的方式。 過去幾年,我假設文字是他們自己的——但今天不是這樣了。 隨著諸如 Microsoft Editor 或 Grammarly 等注入人工智慧的編輯和風格程式,更不用說完全成熟的文字生成工具,學生們可以隨時使用,我已經不知道是誰寫了什麼。
你認為哪些人工智慧程式是最不具威脅性的,或者你認為應該接受的?
人工智慧的寫作能力是一項令人難以置信的傑作。 但就像發現火一樣,我們必須弄清楚如何最好地利用它。 鑑於當前程式的新穎性,我們需要至少幾年的時間來摸索前進的道路。
今天的翻譯程式雖然不完美,但已經非常出色,好處是不懂外語的日常使用者可以立即訪問他們原本無法閱讀的文件。 當然,一個潛在的缺點是會失去學習外語的動力。
生成式人工智慧的另一個有希望的用途是編輯人類生成的文字。 當人工智慧成為一種教學工具時,我感到很興奮,但當它只是在作者之後進行清理,而沒有吸取任何教訓時,我的興奮感就會降低。 使用者需要在寫作過程中成為積極的參與者。
正如你在書中說的那樣,存在重視 ChatGPT 的速度和潛在效率,而不是人類技能發展的風險。 藉助拼寫檢查的好處,我們可能會失去自己的拼寫能力。 你認為我們最先會因為 ChatGPT 編寫法律檔案、電子郵件甚至新聞報道的能力而失去什麼?
正如我在書中論證的那樣,新聞業可能會感受到對就業人數的影響,儘管我不太擔心留下的新聞記者的寫作技能。
電子郵件是一個更細緻的故事。 一方面,如果你使用 Microsoft Outlook 或 Gmail,你已經看到了很多在編寫電子郵件時的自動完成功能。 另一方面,新版本的人工智慧(想想 GPT-4)正在自行編寫整個電子郵件。 現在真的可能變成我的機器人給你的機器人寫信。 我擔心像 ChatGPT 這樣的工具會讓我們不再關心用我們自己的聲音、帶著我們自己的情感來撰寫我們自己的資訊,當我們寫信給對我們個人很重要的人時。
你如何看待最近和潛在的版權侵權案件,這些案件涉及作者或出版商以及 ChatGPT?
版權侵權案件很有趣,因為我們確實處於未知的領域。 你會記得 The Authors Guild v. Google 案,其中作家協會聲稱 Google 圖書在未經許可數字化圖書然後顯示片段時構成了版權侵權。 經過多年的訴訟,谷歌勝訴……根據合理使用原則的裁決。
從我從版權專家律師那裡讀到的內容來看,我懷疑 OpenAI [開發 ChatGPT 的公司] 最終也會勝訴。 但這是與作家協會案件的不同之處:對於 Google 圖書,作者可能會損失版稅,因為 Google 圖書的使用者可能不太可能購買書籍本身的副本。 然而,對於 ChatGPT,如果使用者呼叫機器人生成文字,然後該使用者希望出售該文字以獲利,那可能是另一回事。 這是生成藝術領域案例的基礎。 這是一個勇敢的法律新世界。
