深度偽造和人工智慧生成的新型虛假媒體的創造與檢測競賽

被操縱的影片正變得越來越複雜——但識別它們的技術也是如此

麻省理工學院開放學習

人工智慧(特別是深度神經網路(DNN))偽造的影片是近期線上虛假資訊問題中出現的新變化。雖然數字影像和影片的偽造和操縱並非新鮮事,但近年來人工智慧技術的快速發展使得建立令人信服的虛假影片的過程變得更加容易和快速。人工智慧生成的虛假影片在 2017 年末首次引起公眾的關注,當時一個名為 Deepfakes 的 Reddit 賬戶釋出了使用基於 DNN 的換臉演算法生成的色情影片。隨後,深度偽造一詞被更廣泛地用於指代所有型別的人工智慧生成的模仿影片。

雖然深度偽造有一些有趣和富有創意的應用,但它們也很可能被武器化。我們是最早對這種現象做出反應的人之一,並開發了第一種基於早期早期深度偽造影片中缺乏真實眨眼動作的深度偽造檢測方法,時間在 2018 年初。隨後,人們對開發深度偽造檢測方法產生了濃厚的興趣。

檢測挑戰


支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關當今塑造我們世界的發現和想法的具有影響力的故事能夠擁有未來。


這些努力的高潮是今年的深度偽造檢測挑戰賽。總的來說,獲勝的解決方案是高階 DNN 的傑作(表現最佳者的平均精度為 82.56%)。這些為我們提供了有效的工具來揭露由人工智慧演算法自動和大規模生產的深度偽造品。但是,我們需要謹慎解讀這些結果。儘管組織者已盡最大努力模擬深度偽造影片在現實生活中部署的情況,但在評估資料集上的效能與更真實的資料集之間仍然存在顯著差異;當在未見過的影片上進行測試時,表現最佳者的準確率降至 65.18%。

此外,所有解決方案都基於 DNN 和資料增強的巧妙設計,但除了“黑盒”型別的分類演算法之外,沒有提供太多見解。此外,這些檢測結果並未反映演算法在單個深度偽造影片上的實際檢測效能,特別是那些在人工智慧演算法生成後經過手動處理和完善的影片。這種“精心製作的”深度偽造影片更有可能造成實際損害,而仔細的手動後處理可以減少或消除檢測演算法所依據的偽影。

深度偽造與選舉

製作深度偽造的技術已為普通使用者所用;GitHub 上有相當多的免費軟體工具,包括 FakeApp、DFaker、faceswap-GAN、faceswap 和 DeepFaceLab——因此不難想象該技術可能被用於政治競選和其他重要的社會事件中。然而,我們是否會在即將到來的選舉中看到任何形式的深度偽造影片,很大程度上將取決於非技術因素。一個重要的因素是成本。建立深度偽造,雖然比以往任何時候都容易得多,但仍然需要時間、資源和技能。

與其他更廉價的虛假資訊傳播方法(例如,將現有影像或影片重新用於不同的背景)相比,深度偽造仍然是一種昂貴且效率低下的技術。另一個因素是,深度偽造影片通常很容易透過跨來源的事實核查來揭露,因此無法產生持久的影響。儘管如此,我們仍然應該對用於大規模虛假資訊傳播活動或在特定時間(例如,投票前幾個小時內)部署的精心製作的深度偽造影片保持警惕,以造成短期的混亂和困惑。

未來的檢測

深度偽造的製作與檢測之間的競爭在可預見的未來不會結束。我們將看到更容易製作、更逼真且更難區分的深度偽造品。合成中細節缺乏的當前瓶頸將透過與 GAN 模型相結合來克服。隨著硬體和更輕量級神經網路結構的進步,訓練和生成時間將會縮短。在過去的幾個月中,我們看到了新的演算法,這些演算法能夠提供更高水平的真實感接近即時的執行。最新形式的深度偽造影片將超越簡單的換臉,發展到全頭合成(頭部木偶戲)、聯合視聽合成(會說話的頭部)甚至全身合成。

此外,最初的深度偽造品僅旨在欺騙人類的眼睛,但最近有一些措施使它們也無法被檢測演算法區分。這些措施被稱為反取證,它利用深度神經網路的脆弱性,透過向生成的深度偽造影片新增有針對性的隱形“噪聲”來誤導基於神經網路的檢測器。

為了遏制日益複雜的深度偽造品構成的威脅,檢測技術也需要跟上步伐。當我們努力提高整體檢測效能時,還應強調提高檢測方法對影片壓縮、社交媒體清洗和其他常見後處理操作以及有意的反取證操作的魯棒性。另一方面,鑑於線上媒體的傳播速度和範圍,即使是最有效的檢測方法也將在很大程度上以後驗方式執行,僅在深度偽造影片出現後才適用。

因此,我們還將看到更多主動方法的開發,以保護個人免受此類攻擊的侵害。這可以透過“汙染”潛在的訓練資料來破壞深度偽造合成模型的訓練過程來實現。使用隱形數字水印或控制捕獲來驗證原始影片的技術也將看到積極的發展,以補充檢測和保護方法。

毋庸置疑,深度偽造不僅是一個技術問題,而且隨著潘多拉魔盒的開啟,它們在可預見的未來不會消失。但是,隨著我們檢測它們的能力在技術上的提高以及公眾對該問題的認識提高,我們可以學會與它們共存,並限制它們在未來的負面影響。

© .