在生成式人工智慧存在的早期,筆記型電腦需要花費數小時才能處理繁瑣的程式碼,因為人工智慧模型緩慢地學習寫作、拼寫,並最終輸出奇怪而滑稽的萬聖節服裝、搭訕語或食譜。光學研究員 Janelle Shane 對其中一份食譜清單——其中要求使用切碎的波旁威士忌和切碎的水等配料——非常感興趣,以至於她讓自己的筆記型電腦也承擔了這項任務。自 2016 年以來,她一直在部落格中記錄這些神經網路的快速發展,從最初笨拙可愛到令人驚訝地連貫——有時,也令人震驚地錯誤。Shane 2019 年出版的著作《你看上去像個東西,但我愛你》剖析了人工智慧的工作原理以及我們可以(和不能)對它抱有的期望,而她最近在她的部落格 AI Weirdness 上釋出的文章則探討了影像生成演算法的怪異輸出、ChatGPT 嘗試的ASCII 藝術和自我批評以及人工智慧的其他粗糙之處。《大眾科學》與 Shane 談論了為什麼一隻完美無瑕的長頸鹿會讓人工智慧感到困惑,這些模型絕對不應該用於哪些地方,以及聊天機器人的準確性是否可以完全信任。
[以下是對話的編輯稿。]
在您訓練和玩弄聊天機器人的這些年中,生成式人工智慧發生了怎樣的變化?
關於支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續講述關於塑造我們當今世界的發現和想法的具有影響力的故事。
現在關於人工智慧的商業熱議比我剛開始接觸它時要多得多。在那個時候,我認為,谷歌翻譯是人們會看到的整個機器學習人工智慧技術體系的首批大型商業應用之一。當時有跡象表明可能還有更多的應用,但在那個時候,這絕對更多是研究人員的領域。
有些事情沒有改變,[例如] 人們傾向於對從這些技術中獲得的文字進行更深層次的解讀。我們會從一片樹葉在人行道上隨意飄落中看到意義……隨著文字變得更加複雜,[炒作] 正在進入主要的專欄文章和主要報紙。隨著這些工具變得更容易獲得,我們也看到越來越多的人嘗試將其用於一切事物,看看哪些能奏效。
這為您部落格提供了更多的素材,對嗎?
我一直關注人工智慧生成文字的方式與人類寫作方式之間的差異,因為對我來說,這正是你可能遇到有趣和意想不到的東西以及新穎事物的地方……看到所有這些故障答案和怪異的文字生成[也]是一種有趣的方式,讓你獲得一些直覺。如果你想,“啊,是的,我可以用它來標記我的簡報中的所有影像,這樣我就不必編寫無障礙字幕了?”你可以記住這一點。答案是,它會生成標籤,但你真的需要仔細檢查它們,因為所有這些故障。
說“嘿,它不是完全準確的”是一回事。記住無斑長頸鹿的故事又是另一回事。2023 年,田納西州的一家動物園裡出生了一隻沒有斑點的長頸鹿。上次[已知]發生這種情況是在網際網路出現之前,因此網際網路上[幾乎沒有]關於無斑長頸鹿的照片。看到所有這些影像標記演算法如何描述這隻長頸鹿幷包含關於斑點皮毛的描述,因為這只是預期的,這非常有趣。
這是一個意想不到的事情的例子,這個演算法沒有機會記住或敷衍了事或隱藏這種缺乏更深層次理解的情況。突然,你有了這個案例,它揭示了它實際上並沒有關注斑點。這就是為什麼故障藝術很重要,為什麼這些錯誤很重要。
您偶爾也會指出生成式人工智慧擅長的領域——我特別想到一篇帖子,您要求 GPT-3 回答問題,就好像它是一隻秘密的松鼠,展示了它如何展示虛構的內心生活。
我真的很想戳破這種論點,即如果這些文字生成器可以描述有感知力的人工智慧的體驗,那麼它們一定是具有感知力的人工智慧,因為這曾經是,而且現在仍然是,一種正在流傳的說法:“看,它說它是有感知力的,有思想和感情,而且不只是想被用來生成文字。”看到文字生成出現這種情況令人不安。我確實想指出,儘管人工智慧可以描述成為一隻松鼠的體驗,但這並不意味著它實際上是一隻松鼠。
您是否覺得生成式人工智慧發生了實際的重大質變,還是從切碎的水到秘密松鼠的旅程感覺是漸進的?
就像在預測文字字串中一樣,接下來發生的事情遵循之前發生的事情。因此,從這個意義上說,它是漸進的,但確實有很多增量——數百萬美元的計算時間。而一個全球性的產業將對一個專案和一個技術做到這一點。因此,它肯定已經成長和改變了。另一方面,你從這些演算法中看到的錯誤型別與它們從一開始就存在的錯誤型別相同。這也是我在 2019 年仍然願意寫一本關於人工智慧的書的原因之一,當時情況仍在快速變化:我仍然可以看到這些暗流,這些保持不變的主線。
您以人工智慧生成的搭訕語命名了您的書名,這句搭訕語非常奇怪,以至於它兜了一圈又變得有魅力了。今天的人工智慧搭訕語是否會具有同樣的魅力,還是隻會是令人沮喪的網路搭訕語的翻版?
我懷疑現在它會是網路搭訕語令人沮喪的混音版。很難得到一個獨特的搭訕語,因為它會記住過去的很多搭訕語。
我真的很喜歡早期迴圈神經網路在我的筆記型電腦上執行時產生的故障、半混亂的文字。文字的簡單性和徹底的混亂性讓我覺得非常搞笑。ChatGPT、[Gemini] 以及人們現在可以使用的所有這些文字生成器——它們生成如此連貫的文字幾乎是一種遺憾。
我也覺得這種連貫性有點可怕,因為我看到人們問人工智慧諸如“某某東西對狗有毒嗎?”之類的問題。我知道它會回答你,但請不要問它這個問題!
正是如此。有很多毒理學家說,“好的,這個具體的建議是危險的……不要這樣做。”而且它可能只是從演算法中冒出來的。因為它如此連貫,而且通常因為它被包裝成看起來像是在查詢資訊的東西,所以人們被引導去信任它。有一些臭名昭著的人工智慧生成的蘑菇狩獵書籍,其中包含完全危險的建議。我沒有預料到人們會為了賺錢而生成和銷售它們,而沒有真正關心人們浪費了多少時間,或者[他們會讓人們]處於實際危險之中……我[沒有預料到]人們會多麼願意使用故障的或不完全正確的或有點浪費時間的文字——會有一個市場。
您是否預見到生成式人工智慧最終會變得準確?
我們現在嘗試將這些演算法用作檢索資訊的方式不會引導我們獲得正確的資訊,因為它們在訓練期間的目標是聽起來正確和具有可能性,並且實際上沒有任何東西從根本上與現實世界的準確性或準確檢索和引用正確的來源材料聯絡起來。而且我知道人們正試圖以這種方式對待它,並在很多應用中以這種方式出售它。我認為人們所要求的這種資訊檢索與這些東西實際訓練的目的(即聽起來正確)之間存在根本的不匹配。
任何你需要正確答案的事情都不是生成式人工智慧的好用途。
而且偏見仍然是一個問題。
許多表面上的汙穢已經被微調和額外的訓練消除了,但這並沒有從根本上改變我們給這些演算法的輸入資料。它仍然存在,仍然可以衡量,並且仍然對我們從中獲得的東西產生影響。
生成式人工智慧的炒作是否排擠了人工智慧的其他良好用途?
有很多人正在默默地繼續工作,使用人工智慧技術來解決他們無法用其他方式解決的有用問題。例如,在藥物發現研究中,這是一個相當大的成功,因為你可以使用更量身定製的人工智慧技術來嘗試不同的藥物組合,並提出有希望的配方,然後,至關重要的是,去實驗室測試這些配方,看看它們是否真的會成功。
人們還在將這些模型應用於一些輕微的不準確是可以接受的情況。我想到了語音郵件轉錄,例如。如果它不夠準確,你必須聽一遍,好吧,但是你可以在不必坐下來聽完常規語音郵件的情況下了解大意。我認為,這些小型人工智慧應用才是價值真正所在,也是我認為長期成功可能實現的地方。
人工智慧轉錄軟體真的很有用,但是我現在使用的版本還會根據討論自動生成一些小的行動要點,就好像你在參加工作會議一樣,無論這在上下文中是否有意義。我只是在談論某人的研究,而不是設定議程!
我很想知道它會根據這次採訪決定佈置什麼家庭作業——如果它告訴你去開始切碎那些水。
