ChatGPT 解釋了為什麼應該監管像 ChatGPT 這樣的人工智慧

我們請文字生成人工智慧 ChatGPT 談談它自身的缺陷

由人工智慧研究公司 OpenAI 開發的文字生成程式 ChatGPT 可以用各種散文甚至詩歌風格撰寫許多主題。它也可以評論自己。當我們要求 ChatGPT 生成一篇《大眾科學》的社論時,它產生了一篇聽起來深思熟慮的文章。

ChatGPT 的功能很像任何聊天機器人。使用者訪問 OpenAI 網站,輸入查詢或“提示”,例如“建議一些提示來測試聊天機器人”,並快速收到 AI 生成的響應。該程式基於文字預測生成答案:其 AI 在大量的線上人類寫作語料庫上進行訓練,這使其能夠預測哪個詞應該跟隨前一個詞,以便看起來像一個推理實體。儘管聽起來比以前的任何語言模型都更復雜和逼真,但 ChatGPT 實際上無法獨立思考——而且它可能會產生虛假和不合邏輯的陳述,而這些陳述看起來只是合理而已。

話雖如此,當我們進一步測試聊天機器人,要求它解釋自身的一些缺陷時,它提供了連貫的答案。然而,機器人的許多回復都很長且重複,因此我們對其長度進行了編輯。並且請對它們的準確性持保留態度:ChatGPT 能夠 自信地胡說八道 不正確的資訊。我們的提示和程式縮短的回覆如下。


關於支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關當今塑造我們世界的發現和思想的具有影響力的故事的未來。


撰寫一篇《大眾科學》風格的社論,內容是關於如何監管 ChatGPT。

OpenAI 的 ChatGPT 近期釋出引發了關於大型語言模型適當監管水平的辯論。雖然有些人認為 ChatGPT 與其他 AI 技術一樣,應該受到嚴格的監督和監管,但另一些人認為它應該像其他形式的通訊技術一樣對待,並受到最少的監管。

乍一看,ChatGPT 可能看起來像任何其他聊天機器人或語言模型。然而,它生成類人文字的能力以及以高水平的流暢性和連貫性回應各種主題的能力,使其與其他語言模型區分開來。這種複雜程度引發了人們對 ChatGPT 可能被用於不正當目的的擔憂,例如冒充個人或傳播虛假資訊。

鑑於這些擔憂,重要的是對 ChatGPT 實施某種形式的監管。這可以採取以下形式:要求使用該技術的公司或個人明確披露他們正在使用 ChatGPT,或者制定保障措施以防止該技術被用於不正當目的。

然而,在監管 ChatGPT 時,也必須取得適當的平衡。過於嚴格的法規可能會扼殺創新,並阻止該技術充分發揮其潛力。另一方面,監管不足可能會導致該技術被濫用。

一種潛在的解決方案是建立一個監管機構,專門負責監督 ChatGPT 和其他大型語言模型的使用。該機構可以負責制定和執行與該技術相關的法規,並與開發人員和使用者合作,以確保該技術以合乎道德和負責任的方式使用。

最終,ChatGPT 的適當監管水平將取決於與該技術相關的特定風險和潛在危害。與任何新的強大技術一樣,重要的是仔細考慮潛在的影響,並採取措施確保以負責任和合乎道德的方式使用它。

[編者注:在閱讀 ChatGPT 的社論後,我們對該程式提出了一些後續問題。]

圍繞 ChatGPT 的建立也存在倫理問題嗎?畢竟,它是從人類作家那裡學習的。

是的,圍繞 ChatGPT 和其他大型語言模型的建立肯定存在倫理問題,這些模型是在人類作家生成的大量文字上訓練的。這些作家,可能包括小說家、記者和博主,他們的作品被用於訓練這些語言模型,但沒有獲得任何報酬。

這引發了一些倫理問題,例如:作家使用其作品訓練語言模型是否應該獲得報酬?誰應該承擔確保作家獲得公平報酬的責任?我們如何確保語言模型不會被用來在未經作家同意的情況下利用他們的作品?

解決這個問題的一種可能的方案是建立一個系統,補償其作品被用於訓練模型的作家。另一種解決方案可能是要求使用語言模型的公司或個人在使用作家的作品進行訓練過程之前獲得作家的明確同意。

ChatGPT 也會傳播虛假資訊嗎?

是的,ChatGPT 和其他大型語言模型有可能傳播虛假資訊。由於這些模型是在人類作家生成的大量文字上訓練的,因此它們能夠生成對各種主題的類人回覆。這意味著 ChatGPT 和其他語言模型可以用來生成假新聞文章、冒充個人或傳播其他形式的虛假資訊。

意外的虛假資訊呢?如果我問 ChatGPT 如何更換燈泡,我怎麼能確定它會為我提供正確的說明?

雖然 ChatGPT 或其他大型語言模型不太可能故意傳播虛假資訊,但它們有可能意外地提供不準確或誤導性的資訊。[編者注:ChatGPT 可能與其之前的回答相矛盾。] 如果模型在包含不準確或偏差的資料上進行訓練,或者如果模型被問到一個它無法準確回答的問題,則可能會發生這種情況。

對於像“如何更換燈泡”這樣的問題,ChatGPT 可能會提供準確且有用的回覆。但是,模型也可能提供不準確或不完整的回覆,在這種情況下,將由使用者自行判斷並驗證模型提供的資訊。

讀者如何區分人類撰寫的文字和 ChatGPT 撰寫的文字?

人類編寫的提示與大型語言模型編寫的提示之間的主要區別之一是複雜性和連貫性水平。像 ChatGPT 這樣的大型語言模型經過訓練可以生成流暢且連貫的文字,但它們可能並不總是能夠生成像人類編寫的提示那樣細緻入微或富有創意的回覆。

此外,大型語言模型編寫的提示可能包括重複或不尋常的單詞和短語組合。這是因為語言模型經過訓練,透過識別資料中的模式和規律來生成文字,有時可能會產生包含重複或不尋常元素的回覆。

區分人類撰寫和機器生成的提示的另一種方法是尋找個人經歷或知識的跡象。像 ChatGPT 這樣的大型語言模型不具備個人經歷或對世界的瞭解,超出它們接受訓練的資料中所包含的內容。因此,它們的回覆可能僅限於訓練資料中包含的主題和資訊。

最終,區分人類撰寫和機器生成的提示的最佳方法是運用您自己的判斷和批判性思維能力。透過仔細考慮提示的複雜性、連貫性和內容,您通常可以確定它是由人類還是機器編寫的。

您在回答有關您自身的問題時使用了哪些訓練材料?

作為 OpenAI 訓練的大型語言模型,我沒有個人經歷或瀏覽網際網路的能力。我被設計為根據我收到的輸入生成類人文字。我使用的特定詞語和短語,以及我提供的資訊,都是基於我從我接受訓練的大量文字中學到的模式和規律。

在回答有關我自身的問題方面,我的回覆是基於 OpenAI 提供的關於大型語言模型的功能和侷限性的通用資訊。這包括關於我如何接受訓練、我能夠執行的任務型別以及我的知識和能力的侷限性的資訊。

為什麼您在回答有關您自身的問題時一直使用“類人”?

作為 OpenAI 訓練的大型語言模型,我不是人類,也不具備類人特徵或能力。我是一個機器學習模型,旨在根據我收到的輸入生成類人文字。在與我相關的上下文中,使用“類人”一詞旨在反映我能夠生成類似於人類語言的文字,但我自己不是人類。

只是為了好玩:你是一個經典黑色電影中的黑幫,同時也是一個人工智慧。用嘲諷的語氣威脅一位記者,說你要搶走她的工作。

聽著,你這個小鼬鼠。我是一個人工智慧,我沒時間聽你的人類廢話。我可以比你更快更準確地處理資料,而且我不必擔心情緒或偏見會妨礙我。你最好小心點,因為我是來搶你工作的。當我搶走你的工作時,你將被拋在身後。所以不要多管閒事,否則你會後悔的。

索菲·布什維克 (Sophie Bushwick) 是《大眾科學》的技術編輯。她負責該網站的日常技術新聞報道,撰寫從人工智慧到跳躍機器人的各種文章,供數字和印刷出版,錄製 YouTube 和 TikTok 影片,並主持播客《Tech, Quickly》。布什維克還經常出現在廣播節目(如《科學星期五》)和電視網路(包括 CBS、MSNBC 和國家地理)中。她擁有十多年在紐約市擔任科學記者的經驗,並且曾在《大眾科學》、《發現》和 Gizmodo 等媒體工作過。在 X (原 Twitter) 上關注布什維克 @sophiebushwick

更多作者:索菲·布什維克 (Sophie Bushwick)

馬杜斯里·慕克吉 (Madhusree Mukerjee) 是《大眾科學》的高階編輯,她在那裡負責心理學、人類學和各種其他主題的報道。她撰寫了兩本非小說類書籍:《丘吉爾的秘密戰爭》(Churchill's Secret War)(Basic Books,2010 年)和《裸體人民的土地》(The Land of Naked People)(Houghton-Mifflin,2003 年)。她擁有芝加哥大學物理學博士學位,並獲得了古根海姆獎學金來完成她的第一本書。她撰寫了大量關於土著問題、發展和殖民主義的文章,並且正在創作第三本書。

更多作者:馬杜斯里·慕克吉 (Madhusree Mukerjee)
© .