得益於生成式人工智慧的蓬勃發展,能夠生成文字、計算機程式碼、影像和音樂的程式對普通人來說唾手可得。我們已經在使用它們了:人工智慧內容正在佔領網際網路,由“大型語言模型”生成的文字正在填充數百個網站,包括CNET和Gizmodo。但是,隨著人工智慧開發者抓取網際網路,人工智慧生成的內容可能很快就會進入用於訓練新模型以像人類一樣響應的資料集。一些專家表示,這將無意中引入錯誤,這些錯誤會隨著模型每一代的迭代而累積。
越來越多的證據支援這一觀點。它表明,即使少量的人工智慧生成文字的訓練資料,最終也會對被訓練的模型產生“毒害”。目前,幾乎沒有明顯的解藥。“雖然現在或在幾個月內可能不是問題,但我相信幾年後它將成為一個需要考慮的因素,” 蘇格蘭愛丁堡大學資訊學院的計算機科學家Rik Sarkar說。
支援科學新聞報道
如果您喜歡這篇文章,請考慮支援我們屢獲殊榮的新聞報道,方式是 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續刊登關於塑造我們當今世界的發現和想法的有影響力的報道。
人工智慧模型自我汙染的可能性可能有點類似於20世紀的某個困境。在第二次世界大戰結束時第一批原子彈被引爆後,數十年的核試驗使地球大氣層中摻入了一點放射性塵埃。當這些空氣進入新制造的鋼鐵時,也帶來了升高的輻射。對於特別對輻射敏感的鋼鐵應用,例如蓋革計數器控制檯,這種放射性塵埃構成了一個明顯的問題:蓋革計數器不能自己報警。因此,人們開始爭搶日益減少的低輻射金屬供應。拾荒者搜尋舊沉船,以提取戰前鋼鐵的碎片。現在一些業內人士認為,類似的迴圈將在生成式人工智慧中重演——用訓練資料代替鋼鐵。
研究人員可以觀察到人工智慧中毒的實際情況。例如,從一個用人類生成的資料訓練的語言模型開始。使用該模型生成一些人工智慧輸出。然後使用該輸出訓練一個新的模型例項,並使用結果輸出訓練第三個版本,依此類推。隨著每次迭代,錯誤都會相互疊加。第十個模型在被提示撰寫關於英國曆史建築的文章時,吐出了關於兔子的胡言亂語。
“它會達到一個程度,你的模型實際上變得毫無意義,”牛津大學的機器學習研究員Ilia Shumailov說。
Shumailov和他的同事將這種現象稱為“模型崩潰”。他們在名為OPT-125m的語言模型,以及另一個生成手寫數字的人工智慧模型,甚至是一個試圖分離兩個機率分佈的簡單模型中觀察到了這種現象。“即使在最簡單的模型中,這種情況也已經在發生,”Shumailov說。“我向你保證,在更復雜的模型中,這種情況也百分之百已經在發生。”
在最近的一項預印本研究中,Sarkar和他在馬德里和愛丁堡的同事用一種稱為擴散模型的人工智慧影像生成器進行了類似的實驗。他們系列中的第一個模型可以生成可識別的花朵或鳥類。到他們的第三個模型時,這些圖片已經退化成模糊不清的影像。
Sarkar說,其他測試表明,即使是部分人工智慧生成的訓練資料集也是有毒的。“只要有相當一部分是人工智慧生成的,就會成為問題,”他解釋說。“現在到底需要多少人工智慧生成的內容才會導致問題,以及在什麼樣的模型中會導致問題,這仍然有待研究。”
這兩個研究小組都對相對較小的模型進行了實驗——這些程式比GPT-4語言模型或Stable Diffusion影像生成器等模型更小,使用的訓練資料也更少。較大的模型有可能被證明更能抵抗模型崩潰,但研究人員表示,幾乎沒有理由相信會這樣。
到目前為止的研究表明,模型在其資料的“尾部”——模型訓練集中較少表示的資料元素——會遭受最大的損失。由於這些尾部包括遠離“常態”的資料,模型崩潰可能會導致人工智慧的輸出失去研究人員所說的人類資料特有的多樣性。特別是,Shumailov擔心這將加劇模型對邊緣化群體的現有偏見。“很明顯,未來模型會變得更加有偏見,”他說。“需要付出明確的努力來遏制它。”
也許這一切都是推測,但人工智慧生成的內容已經開始進入機器學習工程師賴以獲取訓練資料的領域。以語言模型為例:即使是主流新聞媒體也開始釋出人工智慧生成的文章,一些維基百科編輯希望使用語言模型為該網站生成內容。
“我覺得我們正處於一個轉折點,我們用來訓練這些模型的許多現有工具正迅速被合成文字飽和,” 洛桑瑞士聯邦理工學院(EPFL)的研究生Veniamin Veselovskyy說。
有跡象表明,人工智慧生成的資料也可能從其他地方進入模型訓練。長期以來,機器學習工程師一直依賴眾包平臺,例如亞馬遜的Mechanical Turk,來註釋他們模型的訓練資料或審查輸出。EPFL的Veselovskyy和他的同事要求Mechanical Turk的工人總結醫學研究摘要。他們發現,大約三分之一的摘要帶有ChatGPT的痕跡。
EPFL小組的工作於上個月在預印本伺服器arXiv.org上釋出,僅檢查了來自Mechanical Turk工人的46份回覆,而總結是一項經典的語言模型任務。但結果在機器學習工程師的腦海中引發了幽靈。“用ChatGPT註釋文字資料要容易得多,而且結果非常好,” EPFL的研究生Manoel Horta Ribeiro說。Veselovskyy和Ribeiro等研究人員已經開始考慮如何保護眾包資料的人性,包括調整Mechanical Turk等網站,以阻止使用者轉向語言模型,並重新設計實驗以鼓勵更多的人類資料。
為了應對模型崩潰的威脅,一個不幸的機器學習工程師該怎麼辦?答案可能是蓋革計數器中的戰前鋼鐵的等價物:已知沒有(或者可能儘可能沒有)生成式人工智慧汙染的資料。例如,Sarkar提出了採用“標準化”影像資料集的想法,這些資料集將由人類策展,他們知道其內容僅包含人類創作,並可供開發者免費使用。
一些工程師可能會試圖撬開網際網路檔案館,查詢人工智慧繁榮之前的舊內容,但Shumailov不認為回到歷史資料是一個解決方案。一方面,他認為可能沒有足夠的歷史資訊來滿足不斷增長的模型的需求。另一方面,這些資料僅僅是:歷史資料,不一定反映不斷變化的世界。
“如果你想收集過去100年的新聞,並試圖預測今天的新聞,顯然是行不通的,因為技術已經改變了,”Shumailov說。“行話變了。對問題的理解也發生了變化。”
那麼,挑戰可能更直接:區分人類生成的資料和合成內容,並過濾掉後者。但即使存在這種技術,這也不是一項簡單的任務。正如Sarkar指出的那樣,在一個Adobe Photoshop允許其使用者使用生成式人工智慧編輯影像的世界中,結果是人工智慧生成的影像——還是不是?
