2018年4月,一段關於巴拉克·奧巴馬的新影片在網際網路上浮出水面。背景包括美國國旗和總統旗幟,看起來像他之前的許多演講。奧巴馬身穿筆挺的白色襯衫和深色西裝,面對鏡頭,用伸出的雙手強調他的話語:“特朗普總統是個十足的白痴。”
他面無表情地繼續說道。“你看,我永遠不會說這些話。至少不會在公開演講中說。但其他人會說。” 畫面切換到分屏,露出了演員喬丹·皮爾。奧巴馬什麼也沒說——這是一個真實的奧巴馬演講錄音,與皮爾的模仿相結合。並排播放,資訊繼續傳遞,皮爾就像一個數字腹語術者,把更多的話塞進這位前總統的嘴裡。
在這個假新聞時代,這段影片是由BuzzFeed新聞製作的公共服務公告,展示了一項新的人工智慧(AI)技術的應用,這項技術可以像Photoshop對數字影像所做的那樣,對音訊和影片進行處理:允許操縱現實。
關於支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和思想的具有影響力的故事的未來。
結果仍然相當粗糙。仔細聽和看,奧巴馬的聲音有點鼻音。短暫閃爍間,他的嘴——與皮爾的嘴融合在一起——偏離了中心。但是這項快速發展的技術,旨在用於好萊塢電影剪輯師和影片遊戲製作者,已經讓一些國家安全專家和媒體學者的想象力變得黑暗。下一代工具可能會從頭開始製作出令人信服的假貨——不是像奧巴馬演講那樣扭曲現有鏡頭,而是精心策劃從未發生過的場景。
對公眾知識和討論的後果可能是深遠的。例如,想象一下,如果在激烈的競爭中,一段偽造的影片抹黑了一位政治家,會對即將到來的選舉產生什麼影響。或者在公開發行前夜攻擊了一位執行長。一個團體可能會策劃一次恐怖襲擊,並欺騙新聞媒體進行報道,從而引發本能的報復。即使一段病毒式傳播的影片後來被證明是假的,公眾仍然會相信它是真的嗎?也許最令人不安的是:如果普遍存在的假貨的想法讓我們停止相信我們所看到和聽到的大部分內容——包括真實的內容,那該怎麼辦?
許多技術專家承認這項技術可能被廣泛濫用。但斯坦福大學法學教授內特·珀西利說,雖然他們專注於“用於檢測和披露的性感解決方案,但他們花在弄清楚這些解決方案是否真的對人們對假影片有效性的信念產生影響的時間非常少”。珀西利研究的課題包括網際網路如何影響民主,他是一群越來越多的研究人員之一,他們認為僅靠技術手段無法遏制病毒式虛假資訊。這將需要心理學家、社會科學家和媒體專家的投入,以幫助理清這項技術將如何在現實世界中落地。
“我們現在必須這樣做,”珀西利說,“因為目前技術專家——必然地——主導著關於人工智慧生成影片可能實現什麼的討論”。我們對政府和新聞等民主機構的信任已經消退。社交媒體是資訊傳播的主要渠道,今天假新聞製造者更容易利用我們。在沒有連貫的戰略來應對日益複雜的技術的情況下,我們脆弱的集體信任面臨著更大的風險。
無害的開端
偽造影片的路徑可以追溯到20世紀60年代,當時計算機生成影像首次被構想出來。在20世紀80年代,這些特效變得主流,從那時起,影迷們見證了這項技術從科幻電影發展到1994年《阿甘正傳》中阿甘與約翰·肯尼迪握手,再到《俠盜一號》中彼得·庫欣和凱麗·費雪的復活。南加州大學計算機科學副教授、增強現實初創公司Pinscreen的執行長李浩說,目標始終是“建立一個數字世界,讓任何故事講述都成為可能”。“我們如何創造出看起來真實的東西,但實際上一切都是虛擬的?”
早期,大多數圖形來自藝術家,他們使用計算機建立三維模型,然後手工繪製紋理和其他細節——這是一個繁瑣的過程,無法擴大規模。大約20年前,一些計算機視覺研究人員開始以不同的方式思考圖形:與其花費時間在單個模型上,為什麼不教計算機從資料中建立呢?1997年,加利福尼亞州帕洛阿爾託的Interval Research Corporation的科學家開發了Video Rewrite,它切分了現有鏡頭並重新配置了它。研究人員製作了一段肯尼迪說“我從未見過阿甘”的片段。不久之後,德國蒂賓根馬克斯·普朗克生物控制論研究所的科學家教會計算機從200個三維人臉掃描的資料集中提取特徵,從而製作出一張新的人臉。
計算機視覺、資料和自動化之間關係的最大近期飛躍可以說發生在2012年,這得益於一種名為深度學習的人工智慧的進步。與20世紀90年代末使用靜態資料且從未改進的工作不同,深度學習可以適應並變得更好。現在在斯坦福大學傳播系的李曉暢說,這種技術將物體(例如人臉)簡化為資料位。“工程師們正是在這個時候說:我們不再對事物建模了,”她說。“我們將對我們對事物的無知建模,並僅執行資料以瞭解模式。”
技術最初是為了在電影中建立虛擬場景而開發的(1),現在已經演變成可以用來製作虛假影片(2)來傳播虛假資訊的工具。圖片來源:《阿甘正傳》電影劇照,派拉蒙影業,1994年(1);《你不會相信奧巴馬在這段影片中說了什麼!》電影劇照,Monkeypaw Productions和Buzzfeed,2018年4月17日(2)
深度學習使用稱為神經網路的簡單數學公式層,這些公式隨著時間的推移會在任務中變得更好。例如,計算機科學家可以透過向深度學習工具提供成百上千張照片,並基本上每次都說這是一張臉或這不是一張臉來教會它識別人臉。最終,當該工具遇到一個新人時,它將識別構成人臉特徵的模式,並從統計學上說,這也是一張臉。
接下來是使用稱為生成網路的深度學習工具來構想看起來像真人的面孔的能力。同樣的邏輯適用:計算機科學家在成百上千張影像上訓練網路。但是這一次,網路遵循它從示例中收集的模式來製作一張新的人臉。一些公司現在正在音訊方面使用相同的方法。2018年,谷歌推出了Duplex,這是一個基於名為WaveNet的軟體的人工智慧助手,它可以撥打電話,聽起來像真人——包括嗯和嗯哼等口頭語。未來,政治家的虛假影片可能不需要像皮爾這樣的演員的模仿。2017年4月,加拿大初創公司Lyrebird釋出了聽起來令人毛骨悚然地像奧巴馬、特朗普和希拉里·克林頓的音訊樣本。
但是生成網路需要大型資料集進行訓練,這可能需要大量的人工勞動。改進虛擬內容的下一步是教會人工智慧自我訓練。2014年,蒙特利爾大學的研究人員透過生成對抗網路或GAN實現了這一點,該網路將兩個神經網路置於對話中。第一個是生成器,它製作虛假影像,第二個是判別器,它學習區分真實影像和虛假影像。在幾乎沒有人為監督的情況下,網路透過競爭相互訓練——判別器推動生成器製作越來越逼真的假貨,而生成器不斷嘗試欺騙判別器。GAN可以製作各種各樣的東西。在加州大學伯克利分校,科學家們構建了一個可以將馬的影像變成斑馬,或將莫奈等印象派畫家的畫作轉變為清晰的、照片般逼真的場景的GAN。
然後,在2018年5月,德國薩爾布呂肯馬克斯·普朗克資訊學研究所的研究人員及其同事揭示了“深度影片”,它使用了一種GAN。它允許演員控制預先錄製的鏡頭中其他人的嘴、眼睛和麵部動作。深度影片目前僅在肖像設定中有效,即一個人直接看著鏡頭。如果演員移動太多,生成的影片會出現明顯的數字偽影,例如面部周圍的畫素模糊。
GAN尚無法構建與真實鏡頭中捕捉到的場景無法區分的複雜影片場景。有時GAN會產生奇怪的東西,例如一個人額頭上長出一隻眼球。然而,在2018年2月,NVIDIA公司的研究人員找到了一種方法,透過從相對較小的照片開始訓練,然後逐步提高解析度,使GAN製作出解析度極高的人臉。南加州大學李浩的團隊也使用GAN製作了逼真的皮膚、牙齒和嘴巴,所有這些都出了名的難以進行數字重建。
對於非專業人士來說,這些技術都不容易很好地使用。但BuzzFeed的實驗暗示了我們可能的未來。這段影片來自名為FakeApp的免費軟體——它使用了深度學習,但不是GAN。生成的影片被稱為deepfakes,是“深度學習”和“假”的混合詞,以網站Reddit上的一個使用者命名,他與其他人一起是早期採用者,並使用這項技術將名人的臉換到色情片中。從那時起,網路上的業餘愛好者使用FakeApp製作了無數影片——其中大多數是相對無害的惡作劇,例如將演員尼古拉斯·凱奇新增到他沒有參演的一堆電影中,或將特朗普的臉變形到德國總理安格拉·默克爾的身體上。更不祥的是其影響。既然這項技術已經民主化,任何擁有計算機的人都可以在理論上使用它。
假新聞的條件
專家們長期以來一直擔心計算機輔助編輯會毀掉現實。早在2000年,《麻省理工科技評論》上一篇關於Video Rewrite等產品的文章就警告說,“眼見不再為實”,並且“晚間新聞中的影像很可能是一個假貨——快速的新影片操縱技術的捏造”。20年後,虛假影片似乎並沒有充斥新聞節目。原因之一是,製作一個真正好的影片仍然很難。BuzzFeed在專業影片編輯的幫助下花了56個小時才製作出奧巴馬的片段。
然而,我們消費資訊的方式發生了變化。皮尤研究中心的資料顯示,今天只有大約一半的美國成年人在電視上看新聞,而三分之二的人至少透過社交媒體獲取一些新聞。網際網路允許大量媒體湧現,以迎合小眾受眾——包括有意煽動憤怒的極度黨派網站,這些網站不受傳統新聞標準的約束。珀西利說,網際網路獎勵病毒式內容,我們可以比以往任何時候都更快地分享這些內容。而且,與客廳電視相比,虛假影片中的故障在微小的手機螢幕上更難以辨別。
現在的問題是,如果一段具有重大社會或政治影響的深度偽造影片在網上瘋傳,會發生什麼?加州州立理工大學聖路易斯奧比斯波分校倫理與新興科學小組的研究員朱莉·卡彭特研究人機互動,她說,對於這樣一個新的、幾乎未經研究的領域,簡短的答案是我們不知道。隨著今年秋季美國以及國際上的重要選舉即將到來,我們可能會很快找到答案。
我們已經目睹了當連線性和虛假資訊碰撞時產生的後果。假新聞——旨在看起來像合法新聞報道並進行病毒式傳播的捏造的文字故事——是2016年美國總統大選期間備受關注的特徵。普林斯頓大學、達特茅斯學院和英國埃克塞特大學的合作研究表明,在2016年10月7日至11月14日之間的五週內,大約四分之一的美國人訪問了假新聞網站,主要是透過他們的Facebook資訊流渠道。此外,2016年標誌著公眾對新聞業信任度的低谷。據估計,只有51%的民主黨人和14%的共和黨人表示他們信任大眾媒體。
關於書面假新聞的科學研究是有限的。但薩斯喀徹溫省里賈納大學組織行為學助理教授戈登·彭尼庫克說,一些研究表明,僅看到一次虛假資訊就足以使其在以後看起來似乎是可信的。目前尚不清楚原因,但這可能是由於“流暢性”或“處理的容易程度”造成的。如果我們聽到奧巴馬稱特朗普為髒話,然後稍後遇到另一個奧巴馬稱特朗普為淫穢名稱的虛假例子,我們可能會傾向於認為它是真實的,因為它很熟悉。
根據麻省理工學院一項追蹤2006年至2017年間Twitter上126,000個故事的研究,我們也更有可能分享假新聞而不是真實新聞——尤其是虛假政治故事,其傳播範圍和速度超過了關於金錢、自然災害或恐怖主義的故事。該論文表明,人們渴望新奇事物。總的來說,假新聞迎合了我們的情感和個人身份,誘使我們在有機會處理資訊並決定是否值得傳播之前就做出反應。內容越令人驚訝、恐懼或憤怒,我們似乎就越會分享它。
有令人不安的線索表明,影片可能在引發恐懼方面特別有效。“當你以視覺方式處理資訊時,你會相信這件事在空間、時間或社會群體方面離你更近,”布朗大學認知、語言和心理科學助理教授埃莉諾·阿米特說,她的工作梳理了我們與文字和影像的關係方式的差異。她假設這種區別是進化性的——我們的視覺發展先於書面語言,我們更多地依賴我們的感官來檢測迫在眉睫的危險。
事實上,虛假影片已經衝擊了政治競選活動。2018年7月,保守派評論的電視節目主持人艾莉·貝絲·斯圖基在Facebook上釋出了對紐約市民主黨國會候選人亞歷山大·奧卡西奧-科爾特斯的採訪。這段影片不是深度偽造,而是對真實採訪的舊式拼接,並添加了新問題,使奧卡西奧-科爾特斯顯得回答笨拙。根據你的政治立場,這段影片要麼是抹黑,要麼,正如斯圖基後來在為自己辯護時所說的那樣,是諷刺。無論如何,它在一週內獲得了340萬次觀看和超過5000條評論。一些觀眾似乎認為奧卡西奧-科爾特斯搞砸了一次真實的採訪。“天啊!她不知道該怎麼回答,”一位觀眾寫道。“她太蠢了。”
所有這一切都令人擔憂,這本身就是問題的一部分。我們的陰暗沉思可能實際上比影片本身對社會更糟糕。例如,政客們可能會在他們的真實不當行為被錄影帶拍到時,聲稱這些影片是偽造的,從而散佈懷疑。路易斯安那州立大學大眾傳播學副教授雷蒙德·J·平格里說,知道令人信服的假貨甚至有可能存在,可能會侵蝕我們對所有媒體的信任。平格里研究人們對評估什麼是真實和什麼不是真實的能力有多大信心,以及這如何影響他們參與政治程序的意願。他說,當個人失去這種信心時,他們更有可能被騙子和騙徒所欺騙,“這可能會讓人不想尋求真相。”
貓鼠遊戲
對於計算機科學家來說,解決錯誤的方法通常只是更多的計算機科學。儘管這裡討論的錯誤遠比糟糕的編碼複雜得多,但社群中有一種感覺,即可以構建演算法來標記假貨。
“當然,在解決這個問題方面可以取得技術進步,”麻省理工學院網際網路政策研究倡議組織的R·大衛·埃德爾曼說。曾在奧巴馬政府擔任技術顧問的埃德爾曼對這位前總統的偽造影片印象深刻。“我認識這個人。我為他寫過演講稿。我無法分辨真假影片之間的區別,”他說。但埃德爾曼說,雖然他可能會被愚弄,但演算法可能會捕捉到人眼看不見的“蛛絲馬跡和數字簽名”。
到目前為止,修復方法分為兩類。一種方法透過嵌入數字簽名來證明影片是真實的,這類似於貨幣印刷商用來阻止造假者的複雜印章、全息圖和其他特徵。每臺數碼相機都將具有獨特的簽名,從理論上講,這將難以複製。
第二種策略是用檢測器自動標記虛假影片。可以說,對這種檢測器最重要的推動力是國防高階研究計劃局的媒體取證計劃,簡稱MediFor。它於2015年啟動,不久之後,一家俄羅斯新聞頻道播放了烏克蘭戰鬥機擊落馬來西亞航空公司17號航班的虛假衛星影像。後來,一個國際調查小組將該航班的墜毀歸咎於一枚俄羅斯導彈。這些衛星影像不是用深度學習製作的,但MediFor的前專案經理大衛·多爾曼說,DARPA看到了即將到來的革命,並希望找到一種方法來對抗它。
MediFor正在採取三種廣泛的方法,這些方法可以透過深度學習實現自動化。第一種方法檢查影片的數字指紋是否存在異常。第二種方法確保影片遵循物理定律,例如陽光以在現實世界中應有的方式照射。第三種方法檢查外部資料,例如據稱拍攝當天的天氣。DARPA計劃將這些檢測器統一到一個工具中,該工具將給出影片是假的可能性評分。
這些策略可以減少假貨的數量,但這仍然是一場貓鼠遊戲,造假者會模仿數字水印或構建深度學習工具來欺騙檢測器。“我們不會贏得這場遊戲,”加州大學伯克利分校計算機科學與電氣工程教授阿列克謝·埃夫羅斯說,他正在與MediFor合作。“只是我們會讓壞人更難玩這場遊戲。”
達特茅斯學院計算機科學教授哈尼·法裡德說,無論如何,這些工具還需要幾十年才能問世。隨著虛假影片的不斷改進,唯一現有的技術解決方案是依靠像法裡德這樣的數字取證專家。“世界上只有少數人可以和你談論這件事,”他說。“我是其中之一。我無法擴充套件到網際網路。”
拯救現實
即使我們每個人最終都可以使用檢測器來解析網際網路,謊言和真相之間總會存在滯後。這就是社交媒體行業阻止虛假影片傳播面臨挑戰的原因之一。“這是一個傳播問題,同時也是一個創作問題,”埃德爾曼說。“如果一段深度偽造影片落在森林裡,除非Twitter和Facebook放大它,否則沒有人會聽到它。”
在遏制病毒式虛假資訊傳播方面,社交媒體公司有哪些法律義務尚不清楚,以及是否可以在不踐踏言論自由的情況下對該行業進行監管。Facebook執行長馬克·扎克伯格終於承認他的平臺在傳播假新聞方面發揮了作用——儘管這距離2016年大選已經過去了10個多月。畢竟,Facebook旨在讓使用者消費和傳播內容,優先考慮流行的內容而不是真實的內容。憑藉每月超過20億的活躍使用者,對於任何想要引發令人憤怒的虛假故事的人來說,它都是一個火藥桶。
從那時起,扎克伯格承諾採取行動。他正在透過要求使用者對新聞來源的可信度進行排名(一些人認為這是推卸責任的舉動)來將一些負擔轉移給使用者,並計劃使用人工智慧來標記虛假資訊。該公司對細節一直守口如瓶。一些計算機科學家對人工智慧的角度持懷疑態度,包括法裡德,他說這些承諾“天真得驚人”。很少有獨立的科學家能夠研究假新聞如何在Facebook上傳播,因為許多相關資料都處於鎖定狀態。
儘管如此,如果構建虛假影片技術的研究人員不認真思考他們的產品在離開實驗室後將被如何使用和濫用,那麼世界上所有的演算法和資料都無法將我們從虛假資訊宣傳活動中拯救出來。“這是我的請求,”珀西利說,“做這項工作的硬科學科學家必須與心理學家、政治科學家和傳播專家——他們已經在這些問題上工作了一段時間——配對。” 這種合作一直很罕見。
然而,在2018年3月,芬蘭人工智慧中心宣佈了一項計劃,該計劃將邀請心理學家、哲學家、倫理學家和其他人幫助人工智慧研究人員掌握他們工作更廣泛的社會影響。一個月後,珀西利與哈佛大學政治學家加里·金一起啟動了社會資料倡議。該專案將首次允許社會科學家訪問Facebook資料,以研究虛假資訊的傳播。
由於高層責任真空,找出虛假影片的責任落在了記者和公民偵探身上。在奧巴馬和皮爾的深度偽造影片結尾,兩人都說:“展望未來,我們需要對我們從網際網路上信任的東西保持更加警惕。現在是我們需要依靠可信新聞來源的時候了。” 這可能是一個假貨,但它是真實的。
