使用強大的文字或影像生成人工智慧,感覺就像親眼目睹了雅典娜的神話誕生,她全身披掛盔甲,大步從宙斯的額頭中走出。寫一個簡短的提示,瞬間之後,清晰的段落或逼真的影像就會出現在螢幕上(可能很快還會加上令人信服的影片)。這些第一印象可能是令人震驚的,彷彿你的電腦被雷神之火觸碰過。
但希臘神話的另一個版本將宙斯描繪成一個更像反芻者而非創造者。他吃掉了他懷孕的妻子墨提斯,墨提斯完成了孕育雅典娜的勞動,併為她鍛造了盔甲。只有在墨提斯在宙斯的腦海中分娩後,雅典娜才破殼而出。生成式人工智慧系統除非它們也以已存在的事物為食,否則無法產生任何東西。首先,它們將人類創作的句子、藝術品和其他內容原子化,然後在這些消化後的碎片之間建立聯絡。例如,為了學習如何生成文字,OpenAI 的 GPT-3.5(為該公司流行的 ChatGPT 免費版本提供支援)是在從維基百科和其他網站上抓取的約 3000 億個單詞上進行訓練的。
幾家人工智慧公司辯稱,以這種方式訓練模型而無需諮詢或付費給作家、攝影師或其他人類創作者是合理的。“人工智慧開發是對受合理使用保護的現有內容的一種可接受的、變革性的和社會有益的用途,”製作流行的影像生成器 Stable Diffusion 的 Stability AI 在 2023 年 10 月向美國版權局提交的宣告中寫道。該公司的一位代表告訴大眾科學,這仍然是 Stability AI 的立場。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和思想的具有影響力的故事的未來。
這種合理使用觀點遠非普遍。對它的異議是紐約時報起訴微軟和 OpenAI 等糾紛的基礎,該訴訟稱這些技術公司非法使用該報的故事來製作聊天機器人。這個問題也促使計算機科學家埃德·牛頓-雷克斯去年 11 月辭去了在 Stability AI 的工作。此後,他成立了一個名為 Fairly Trained 的非營利組織,該組織認證那些僅在獲得許可的情況下才使用受版權保護的材料來訓練其生成式人工智慧模型的公司。
“正如我所說,在以公平方式訓練的公司和不以公平方式訓練的公司之間,存在著這種分歧,”牛頓-雷克斯說。但他補充說,可能很難辨別人工智慧模型是如何開發的。例如,在一家給定的公司內,人工智慧音訊系統的開發人員可能會尋求許可,而其背後文字生成大型語言模型 (LLM) 的同事可能不會。
Fairly Trained 旨在使這些區別更清晰。到目前為止,包括 Bria 在內的九家公司的模型已獲得其年度認證,Bria 是一家總部位於以色列的人工智慧公司,最近獲得了 2400 萬美元的 A 輪融資。(該公司表示,其影像製作模型僅在從庫存照片巨頭 Getty Images 等來源獲得許可的圖片上進行訓練。)大眾科學與牛頓-雷克斯進行了交談,以瞭解 Fairly Trained 使用什麼標準來認證 Bria 和其他公司及模型,以及儘管他提出了批評,但他為什麼仍然對人工智慧的未來感到興奮。
[以下是經過編輯的採訪稿。]
去年 11 月,您在 X 上寫道,您已離開 Stability AI 的工作,因為該公司未徵求藝術家的許可來使用受版權保護的材料。當您離開時,您是否考慮過做類似 Fairly Trained 的事情?
我離開 Stability 時沒有計劃。在我離開後,人們對我辭職的關注比我預期的要多。當我離開後與包括記者在內的人交談時,我想指出的其中一件事是,Stability 和許多其他公司採取的方法——未經同意就對作品進行訓練——並非所有人都在採取的方法...... 人們問我的其中一件事是:“好的,如果你說有些公司和模型以不同的方式進行訓練,以更公平的方式進行訓練,對他們獲得許可的作品進行訓練,那麼這些公司在哪裡?”
我認為,實施一些使之更透明化的措施相對簡單。最簡單的方法,也是最快的方法,是為那些在許可資料上進行訓練的公司釋出認證。
Fairly Trained 認證是如何運作的?
我們的第一個認證是我們所稱的許可模型認證。任何在訓練生成式人工智慧模型時,沒有依賴於他們沒有獲得許可或沒有權利使用的受版權保護的作品的公司都可以獲得此認證。
獲得認證的方式是透過書面提交。我們有一系列您需要回答的問題,這些問題主要涉及兩件事:第一,您的模型的訓練資料是什麼?第二,您的內部流程是什麼,以確保您實際上堅持僅使用這些訓練資料,並且您的員工正在使用這些訓練資料?... 一旦我們確信我們瞭解您的流程,並且我們瞭解模型中輸入的內容,並且您擁有[必要的]許可......,我們就會給您認證。
目前很多都是基於信任的。我們不會介入並深入研究您的系統......。但我們認為,就目前而言,這是一種充分的機制,可以將我們認為採取正確方法的公司和沒有采取正確方法的公司區分開來——因為,老實說,那些沒有采取這種方法的公司對此非常坦誠。
市面上有大量生成式人工智慧模型,其中一些是由世界上最大的科技公司製造的。您已經認證了其中九個——全部來自相對較小的公司。這是為什麼?
我故意選擇了規模較小的人工智慧公司,因為一般來說,對於這類事情,它們可以更快地行動。您不會遇到在一些規模較大的公司中遇到的那種繁文縟節。
話雖如此,當然,很明顯,當今許多最大的生成式人工智慧公司都無法獲得認證,因為它們不符合此標準。
您認證的所有第一個模型都涉及音樂、音訊或影像。沒有一個生成文字。在開發人工智慧聊天機器人的過程中,是否存在某些內在因素使其更難獲得認證?
據我所知,目前沒有任何大型語言模型可以獲得認證。甚至沒有人接近釋出一個模型,其中所有文字都是許可的或公共領域的,或在正確的開源許可下。生成式人工智慧的支持者中有一種思想流派認為,這一切都是合理使用,他們應該儘可能多地獲取資料。這包括抓取網際網路並獲取他們可以獲得的所有文字。
不幸的是,在過去一年半或兩年中,這一直是文字生成和許多生成式人工智慧的發展方向——部分原因是這是一場儘快開發最大和最佳模型、儘可能多地獲得資金、成為該領域主要參與者的競賽。坦率地說,這是因為人們認為他們可以逃脫懲罰。
2022 年,您使用 LLM 為鋼琴創作了合唱伴奏,您稱之為首部以生成式人工智慧文字為背景的已出版古典音樂作品。(該作品由 Voces8 樂團在去年 8 月倫敦音樂會上演出並播出。)以您現在的瞭解,您還會再做同樣的事情嗎?
我想我不會,老實說。當時一切都非常實驗性。沒有人真正知道會發生什麼。
我應該說:我支援生成式人工智慧。我認為生成式人工智慧是一件偉大的事情。我可能會將其用於我認為它非常有用的用途之一,即作為創意火花,作為靈感。
向我描述生成式人工智慧的未來,在這個未來中,它可以與人類藝術家和創作行為和平共處。
世界上有很大一部分人對從頭開始創作材料感到非常興奮——所有在 Twitter [現在稱為 X] 上使用 Midjourney 的人,你知道,以 俠盜獵車手的風格重新想象一些繪畫。我認為這一切都是浪費時間。
令人興奮的未來在於這項技術作為輔助技術的功能...... 當你開始想象這項技術在教育系統中的應用時,你實際上可以實現創造力的民主化,如果你可以開始為人們提供基本上個性化的輔導——可擴充套件、廉價、個性化的輔導來教他們如何製作東西——尤其是在音樂等領域,而音樂教育在資金方面一直在下降,在我來自的英國就是如此。
但我認為這應該以尊重訓練資料背後的創作者的方式來完成。訓練資料是構建這些系統所需的三種關鍵資源之一:你需要訓練資料、你需要 GPU [圖形處理單元,擅長同時執行多個計算的晶片],並且你需要人工智慧人才。人們正在投入數百萬美元用於後兩者。我不明白,在試圖免費獲得另一項關鍵資源的情況下,如何證明這是合理的,沒有這項資源,這些系統將無法工作。
