專家們長期以來一直警告說,人工智慧將使人們無法區分數字事實和虛構的未來。現在,這個未來已經到來。最近發生的一起錄音事件,聽起來像是一位高中校長髮表種族歧視言論,表明了廣泛可用的生成式AI工具可能帶來的風險以及檢測其使用的難度。
這段冒犯性的音訊片段,聽起來像是一位馬里蘭州巴爾的摩縣的學校校長的聲音,上週被髮布在社交媒體上。它迅速在網上 распространилась, затем попала в местные и национальные новости. 但該片段尚未得到證實,據多家媒體報道,一位工會發言人聲稱它是人工智慧生成的。據報道,巴爾的摩縣公立學校正在調查此事。
這並非首次出現可能具有破壞性的錄音的真實性受到質疑的情況。也不是第一次有人製作深度偽造影片並使其在網上瘋傳。但大多數案例都涉及著名的公眾人物,例如俄羅斯總統弗拉基米爾·普京或美國總統喬·拜登——而不是高中校長。就在本週,新罕布什爾州出現了一系列自動語音電話,偽造拜登的聲音,試圖阻止人們參與該州的初選。生成式人工智慧的近期爆發意味著,比以往任何時候都有更多的人有能力製作出令人信服的偽造品。社會可能嚴重 unprepared to應對由此產生的不可避免的數字欺詐浪潮,以及任何媒體專案都可能是欺詐性的潛在暗示。
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞事業: 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和思想的具有影響力的故事的未來。
《大眾科學》採訪了加州大學伯克利分校的計算機科學教授哈尼·法裡德,他研究數字取證和媒體分析。法裡德開發了用於深度偽造檢測的工具,可以分析 音訊、影像和影片。
[以下是採訪的編輯稿。]
您對巴爾的摩縣公立學校的案件有何看法?
這是一個非常引人入勝的故事。
我使用我們的一些工具分析了這段音訊,這些工具尚未公開。我認為這段音訊很可能是人工智慧生成的——但並非確定。我們的[自動化]模型,經過訓練可以區分真實音訊和人工智慧生成的音訊,將這段音訊歸類為人工智慧生成的音訊。我還[手動]分析了音訊的頻譜圖,在五個不同的時間點,頻譜圖顯示出明顯的數字拼接跡象;這可能是幾個單獨的片段被分別合成然後組合的結果。
總的來說,我認為證據表明這段音訊是假的。但在做出最終決定之前,我們需要了解更多資訊。
找出音訊錄音是否真實的最佳方法是什麼?您希望在調查錄音的真實性時發生什麼?
我希望在任何調查中看到的是多管齊下的方法。首先,[調查人員]應該與多位專家交談,我們都應該進行分析。第二點是,我認為我們需要更多地瞭解所質疑內容的來源。它在哪裡錄製的?何時錄製的?誰錄製的?誰將其洩露給最初發布它的網站?
[如果存在明顯的拼接或編輯跡象],我想知道原因。可能是當時正在進行對話,有人剪輯了音訊以保護身份或縮短片段。但另一種解釋可能是,多個AI片段被拼湊在一起,使其聽起來像一個句子。人工智慧生成技術在短片段上的效果往往比長片段好。
目前建立令人信服的音訊深度偽造技術有多容易?
這很簡單。你只需要大約一到兩分鐘的某人的聲音。有些服務每月收費5美元[讓你]上傳你的參考音訊並克隆聲音。然後你可以輸入文字並在幾秒鐘內獲得令人信服的音訊。這是文字到語音。
還有第二種方法叫做語音到語音。我錄製一個人的聲音並克隆他們的聲音。然後我錄製自己說我想讓他們說的話,帶著所有的語調——包括髒話——它把我的聲音轉換成他們的聲音。這都是相同的底層生成式人工智慧技術。
對於這兩種方法,任何人都可以做到這一點。沒有任何入門門檻或技術技能要求。
那麼您如何描述識別人工智慧生成的音訊所需的技能水平?
非常高。這裡存在巨大的不對稱性——部分原因是製造假東西可以賺很多錢,但檢測假東西賺不了多少錢。
檢測也更難,因為它很微妙;它很複雜;標準總是在不斷提高。我可以一隻手就數得過來世界上能夠以可靠方式做到這一點的實驗室數量。這令人不安。
目前是否有任何公開可用的深度偽造檢測工具?
沒有足夠可靠的。我不會使用它們。風險太高了,不僅關係到個人的生計和聲譽,還關係到每個案例設定的先例。我們必須謹慎地裁決這些事情。
您認為人工智慧音訊和其他深度偽造技術的未來會走向何方?
想象一下,巴爾的摩縣的這起事件是一個高中生對他們的校長感到憤怒並做了這件事的故事——這是有可能的。想象一下,這種威脅現在適用於這個國家的每一位教師、校長、行政人員和老闆。不再僅僅是喬·拜登和斯嘉麗·約翰遜這樣的人面臨風險。你不再需要花費數小時的時間來獲取某人的聲音或影像來建立深度偽造品。
我們知道這種情況會發生。這不是是否會發生的問題——而是何時發生的問題。現在技術已經到來。但這不僅僅是一個生成式人工智慧的故事。這是一個社交媒體的故事。這是一個主流媒體的故事。你必須從整個生態系統的角度來看待這個問題,我們每個人都在其中扮演著角色。我討厭那些在沒有審查音訊的情況下就急於釋出校長故事的媒體。我們需要做得更好。
在網上閱讀、看到和聽到的東西越來越難以相信。這令人擔憂,既因為你將看到人們成為深度偽造技術的受害者,也因為會有人會虛假地聲稱“人工智慧辯護”以逃避責任。
想象一下,每次發生這種情況,我們都必須花費三天時間來弄清楚發生了什麼。這是不可擴充套件的。我們可以在少數情況下進行分析,但如果這種情況每天發生,每天發生多次呢?這令人擔憂。
我們一直在討論最近這起可能的深度偽造事件的輿論法庭。但是,在實際的法律案件中呢?在法庭上,音訊和影片的認證方式是否有任何法律先例?
我確實認為我們將不得不改變在法庭上考慮證據的方式。好訊息是,在實際的法庭上——與社交媒體或輿論不同——有專門的時間進行分析。我從司法系統的緩慢運轉中獲得了一些安慰。
不過,一個重要的懸而未決的法律問題是,這些人工智慧公司對公眾負有什麼責任。為什麼公司可以在基本上沒有護欄的情況下提供這些人工智慧服務?深度偽造技術不是生成式人工智慧的意外後果;這是可以預見的。但直到目前為止,許多公司只是認為他們的利潤比防止傷害更重要。我認為應該有某種方式追究公司的責任。也許,受深度偽造技術影響的人應該能夠起訴製造該產品的公司。
責任不是一個完美的制度,但它以前曾保護消費者免受有缺陷和危險的技術的侵害。這是汽車現在比過去安全得多的部分原因。我不認為人工智慧公司應該獲得豁免。
