得益於大量易於訪問的線上工具,現在幾乎任何擁有計算機的人只需單擊按鈕,即可生成人工智慧生成的影像、文字、音訊和影片,這些內容足以令人信服地模仿人類創作的內容。由此產生的一個重大結果是線上內容危機,即大量且不斷增長的未經檢查的機器生成材料充斥網路,這些材料可能包含危險的錯誤、虛假資訊和犯罪詐騙。這種情況使得安全專家、監管機構和普通民眾都在爭先恐後地尋找一種方法來區分人工智慧生成的產品和人類作品。目前的人工智慧檢測工具非常不可靠。甚至 ChatGPT 背後的公司 OpenAI 最近也將其人工智慧文字識別器下線,因為該工具非常不準確。
現在,另一種潛在的防禦措施正在受到關注:數字水印,即在每件人工智慧生成的內容中插入不可磨滅的、隱蔽的數字簽名,以便可以追溯來源。上個月底,拜登政府宣佈,七家美國人工智慧公司自願簽署了八項風險管理承諾清單,其中包括承諾開發“強大的技術機制,以確保使用者知道內容何時是人工智慧生成的,例如水印系統。” 最近透過的歐盟法規要求科技公司努力區分其人工智慧輸出與人類作品。水印旨在控制正在進行的機器學習熱潮的“狂野西部”局面。這只是第一步——而且是很小的一步——與生成式人工智慧的風險相比,相形見絀。
將人類創作與機器生成混淆會帶來許多後果。“假新聞”在線上存在了幾十年,但人工智慧現在使內容工廠能夠在幾分鐘內釋出海量的誤導性影像和文章,堵塞搜尋引擎和社交媒體資訊流。詐騙資訊、帖子,甚至電話或語音郵件的生成速度也比以往任何時候都快。學生、不擇手段的科學家和求職者可以生成作業、資料或申請,並將其冒充為自己的作品。與此同時,不可靠的有偏見的人工智慧生成內容檢測過濾器可能會欺騙教師、學術評審員和招聘經理,導致他們做出不誠實的錯誤指控。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續報道關於發現和塑造我們當今世界的想法的具有影響力的故事。
公眾人物現在可以依賴深度偽造的可能性——即使用人工智慧製作影片,使某人看起來在說或做某事——來試圖逃避他們真正說過和做過的事情的責任。在最近一起關於駕駛員死亡的訴訟檔案中,電動汽車公司特斯拉的律師試圖聲稱,其執行長埃隆·馬斯克在一段真實的 2016 年錄音中發表了關於自動駕駛汽車安全性的毫無根據的言論,這段錄音可能是一個深度偽造。生成式人工智慧甚至可能“毒害”自身,因為網際網路龐大的資料寶庫——人工智慧依賴它進行訓練——正日益被劣質內容汙染。由於所有這些原因以及更多原因,將機器人與真實事物區分開來變得越來越重要。
現有的 AI 檢測器作用不大。“是的,它們不起作用,”柏林工程與經濟應用科技大學的計算機科學家兼抄襲研究員德博拉·韋伯-伍爾夫 (Debora Weber-Wulff) 說。在 6 月份釋出的一項預印本研究中,韋伯-伍爾夫和她的合著者評估了 12 種旨在檢測人工智慧生成文字的公開可用工具。他們發現,即使在最寬鬆的假設條件下,最好的檢測器在識別機器人編寫的文字時,準確率也低於 80%——而且許多檢測器只相當於拋硬幣的水平。所有檢測器都具有很高的誤報率,並且當給定人類輕微編輯過的人工智慧編寫的內容時,所有檢測器的能力都會大大降低。在假影像檢測器中也注意到了類似的不一致性。
滑鐵盧大學資料安全專業計算機科學家弗洛裡安·克什鮑姆 (Florian Kerschbaum) 說,水印“幾乎是我們可用的為數不多的技術替代方案之一”。“另一方面,這項技術的結果並不像人們可能認為的那樣確定。我們無法真正預測我們將能夠達到什麼樣的可靠性水平。” 建立水印系統存在嚴重的、尚未解決的技術挑戰——專家們一致認為,僅靠這樣一個系統無法完成管理虛假資訊、防止欺詐和恢復人們信任的艱鉅任務。
將數字水印新增到人工智慧生成的內容中並不像在照片上疊加可見的版權資訊那麼簡單。為了對影像和影片進行數字標記,可以隨機稍微調整小簇畫素的顏色,以嵌入一種條形碼——這種條形碼可以被機器檢測到,但對大多數人來說實際上是不可見的。對於音訊材料,類似的追蹤訊號可以嵌入到聲波中。
加州大學伯克利分校數字取證專業計算機科學家哈尼·法裡德 (Hany Farid) 表示,文字構成了最大的挑戰,因為它是資料密度最低的生成內容形式。然而,即使是文字也可以新增水印。今年早些時候發表在《機器學習研究進展》雜誌上的一項研究中概述了一種提議的協議,該協議採用了文字生成大型語言模型可用的所有詞彙,並隨機將其分為兩個框。根據該研究方法,開發人員對其人工智慧生成器進行程式設計,使其稍微偏愛其中一組單詞和音節。由此產生的水印文字包含明顯更多的來自一個框的詞彙,以便可以掃描和識別句子和段落。
在這些技術中的每一種技術中,水印的確切性質都必須對使用者保密。使用者不能知道哪些畫素或聲波已被調整,或者如何進行調整。人工智慧生成器偏愛的詞彙也必須隱藏起來。法裡德說,有效的人工智慧水印必須對人類不可察覺,以避免被輕易刪除,他沒有參與這項研究。
還有其他困難。“這變成了一個巨大的工程挑戰,”克什鮑姆說。水印必須足夠強大,能夠承受一般的編輯以及對抗性攻擊,但它們又不能具有破壞性,以至於明顯降低生成內容的質量。構建用於檢測水印的工具也需要保持相對安全,以防止不良行為者使用它們來逆向工程水印協議。與此同時,這些工具需要足夠易於訪問,以便人們可以使用它們。
理想情況下,所有廣泛使用的生成器(例如 OpenAI 和 Google 的生成器)都應共享一個水印協議。克什鮑姆指出,這樣一種人工智慧工具就不能輕易地用來撤消另一種人工智慧工具的簽名。然而,讓每家公司都加入協調這項工作將是一場鬥爭。而且,任何水印程式都不可避免地需要不斷監控和更新,因為人們會學會如何規避它。將所有這些都委託給最初負責倉促推出人工智慧的科技巨頭,前景令人擔憂。
開源人工智慧系統也面臨其他挑戰,例如影像生成器 Stable Diffusion 或 Meta 的語言模型 LLaMa,任何人都可以修改它們。從理論上講,編碼到開源模型引數中的任何水印都可以輕鬆刪除,因此需要採用不同的策略。法裡德建議透過訓練資料而不是可變的引數將水印構建到開源人工智慧中。“但這個想法的問題在於它有點太遲了,”他說。未經水印訓練的開源模型已經存在,正在生成內容,而重新訓練它們也不會消除舊版本。
最終,構建一個萬無一失的水印系統似乎是不可能的——《大眾科學》就此主題採訪的每位專家都表示,僅靠水印是不夠的。在談到虛假資訊和其他人工智慧濫用時,法裡德說,水印“不是一種消除策略”。“這是一種緩解策略。” 他將水印比作鎖房子的前門。是的,竊賊可能會用重物砸開門,但鎖仍然增加了一層保護。
其他層也在工作中。法裡德指出了內容來源和真實性聯盟 (C2PA),該聯盟建立了一個技術標準,正在被包括微軟和 Adobe 在內的許多大型科技公司採用。儘管 C2PA 指南確實建議使用水印,但它們也呼籲建立一個分類賬系統,該系統記錄每件人工智慧生成的內容,並使用元資料來驗證人工智慧製作和人類製作作品的來源。元資料對於識別人類製作的內容尤其有幫助:想象一下,一部手機相機在使用者拍攝的每張照片和影片的隱藏資料中新增一個認證印章,以證明它是真實的素材。另一種安全因素可能來自改進事後檢測器,這些檢測器尋找人工智慧生成的意外偽影。社交媒體網站和搜尋引擎也可能面臨越來越大的壓力,需要加強其稽核策略,並過濾掉最糟糕的誤導性人工智慧材料。
儘管如此,這些技術修復並沒有解決線上信任危機、虛假資訊和操縱的根本原因——這些原因在當前這一代生成式人工智慧出現之前就已經存在。斯坦福大學研究機器學習的計算機科學家詹姆斯·鄒 (James Zou) 說,在人工智慧驅動的深度偽造出現之前,擅長 Photoshop 的人可以操縱照片來展示他們想要的幾乎任何東西。電視和電影製片廠經常使用特效來令人信服地修改影片。即使是逼真的畫家也可以手工創作出欺騙性的影像。生成式人工智慧只是提高了可能性的規模。
韋伯-伍爾夫說,人們最終將不得不改變他們獲取資訊的方式。教授資訊素養和研究技能從未像現在這樣重要,因為使人們能夠批判性地評估他們線上和線下看到的內容的背景和來源是必要的。“這是一個社會問題,”她說。“我們無法用技術解決社會問題,完全不能。”
