人工智慧機器人如何破壞 2024 年全球選舉

一項新的分析顯示,人工智慧生成的不實資訊將在超過 50 個國家幾乎每天瞄準選民

Man holding a glowing smart phone

仇恨言論、政治宣傳和徹頭徹尾的謊言在網上並非新鮮事——即使像今年這樣的選舉年加劇了這些問題。使用機器人或自動化社交媒體帳戶,使得傳播蓄意捏造的不實資訊以及不準確的謠言或其他型別的誤導資訊變得容易得多。但是,過去影響投票季的機器人經常會產生結構糟糕、語法不正確的句子。現在,隨著大型語言模型(建立文字的人工智慧系統)變得越來越容易被更多人訪問,一些研究人員擔心,自動化社交媒體帳戶很快就會變得更具說服力

根據PNAS Nexus上發表的一項新研究,不實資訊宣傳活動、網路噴子和其他“不良行為者”將越來越多地使用生成式人工智慧來助長選舉謊言。研究人員在其中預測——基於“先前對網路和自動化演算法攻擊的研究”——人工智慧將在 2024 年幾乎每天幫助在社交媒體平臺上散佈有害內容。研究作者表示,潛在的後果可能會影響今年舉行選舉的 50 多個國家(從印度到美國)的選舉結果。

該研究繪製了 23 個線上平臺(包括 Facebook 和 Twitter 以及 Discord 和 Gab 上的小眾社群)上不良行為者群體之間的聯絡,研究的主要作者、喬治·華盛頓大學物理學教授尼爾·約翰遜說。研究發現,釋出大量仇恨言論的極端主義團體傾向於在較小的平臺上形成和生存更長時間——這些平臺通常用於內容稽核的資源較少。但他們的資訊可以傳播得更廣。


關於支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。


約翰遜說,許多小型平臺“彼此之間以及內部都聯絡非常緊密”。這使得不實資訊像彈珠一樣在 4chan 論壇和其他監管寬鬆的網站上彈跳。約翰遜和他的同事估計,如果惡意內容從這些網路滲透到 YouTube 等主流社交網站上,那麼可能有 10 億人容易受到其影響。

紐約大學社交媒體與政治中心執行主任澤夫·桑德森說:“社交媒體降低了傳播誤導資訊或資訊的成本。人工智慧正在降低製作資訊的成本。”他沒有參與這項新研究。“現在,無論您是外國惡意行為者還是規模較小的國內活動的一部分,您都可以使用這些技術來製作在某種程度上引人注目的多媒體內容。”

不實資訊先前選舉中的研究已經查明,大型機器人如何能夠在社交媒體上傳播惡意內容,從而操縱線上討論並侵蝕信任。過去,機器人會獲取由人或程式建立的訊息並重復它們,但今天的大型語言模型 (LLM) 正在增強這些機器人的一項新功能:聽起來令人信服的人工編寫的文字。卡內基梅隆大學計算機科學學院的計算社會科學家凱瑟琳·卡莉說:“僅生成式人工智慧並不比機器人更危險。它是機器人加上生成式人工智慧。”生成式人工智慧和大型語言模型也可用於編寫軟體,從而使程式設計師能夠更快、更輕鬆地編寫機器人程式碼。

麻省理工學院計算機科學與人工智慧實驗室研究生成式人工智慧建模的博士生杜一倫說,許多早期機器人僅限於相對較短的帖子,但生成式人工智慧可以生成逼真的段落式評論。目前,人工智慧生成的影像或影片比文字更容易檢測;杜解釋說,對於影像和影片,“你必須使每個畫素都完美,因此這些工具中的大多數在照明或影像上的其他效果方面實際上非常不準確。”然而,文字是最終的挑戰。桑德森說:“我們沒有任何有意義的成功率的工具可以識別 LLM 生成的文字。”

儘管如此,仍然有一些跡象可以提醒專家注意人工智慧生成的寫作:例如,語法過於完美,或者缺乏俚語、情感詞或細微差別。“編寫顯示哪些是由人類製作的,哪些不是的軟體,並進行此類測試,成本非常高且非常困難,”卡莉說。儘管她的團隊已經致力於開發程式來識別特定社交媒體平臺上的人工智慧機器人內容,但她說這些工具並不完善。卡莉補充說,每個程式都必須完全重做才能在不同的網站上執行,因為例如,X(以前的 Twitter)上的使用者交流方式與 Facebook 使用者的交流方式截然不同。

許多專家懷疑,人工智慧檢測程式(分析文字中大型語言模型參與跡象的程式)能否充分識別人工智慧生成的內容。向此類材料新增水印,或者在人工智慧模型本身中新增過濾器和護欄,也無法涵蓋所有方面。卡莉說:“在使用人工智慧和不實資訊領域,我們正與不良行為者展開一場軍備競賽。” “一旦我們想出一種檢測它的方法,他們就會想出一種使其更好的方法。”約翰遜和他的同事還發現,不良行為者很可能會濫用生成式人工智慧的基本版本,例如 GPT-2,這些版本是公開可用的,並且內容過濾器比當前的模型寬鬆。其他研究人員預測,即將到來的惡意內容不會使用大公司複雜的 AI 製作,而是由少數或個別程式設計師製作的開源工具生成。

但是,即使使用這些更簡單的人工智慧版本,機器人也可以協同進化。在之前的選舉週期中,機器人網路仍然接近社交媒體的邊緣。專家預測,人工智慧生成的不實資訊這次將傳播得更加廣泛。這不僅僅是因為人工智慧可以更快地生成內容;社交媒體使用動態也發生了變化。桑德森解釋說:“在 TikTok 出現之前,我們看到的大多數社交媒體都是基於朋友、關注者、社交關係圖的網路。人們往往關注與自己立場一致的人。” TikTok 轉而使用演算法 feed,該 feed 會注入來自使用者未關注帳戶的內容,其他平臺也已更改其演算法以效仿。此外,正如桑德森指出的那樣,它還包括“平臺正在嘗試發現您是否喜歡”的主題,從而導致“更廣泛的內容消費網路”。

在桑德森之前對 Twitter 上機器人的研究中,研究助理經常透過檢視其帳戶活動(包括其釋出或轉發的照片和文字)來將帳戶標記為機器人或非機器人。“這本質上就像針對帳戶的圖靈測試,”他說。但是,隨著人工智慧生成技術在消除語法不規則和其他機器人內容標誌方面變得越來越好,桑德森認為,識別這些帳戶的責任將不得不落在社交媒體公司身上。這些公司有能力檢查與帳戶關聯的元資料,外部研究人員很少能夠訪問這些元資料。

一些不實資訊專家認為,與其追究虛假內容本身,不如找到並控制製造虛假內容的人會是一種更實際的方法。杜建議,有效的對策可以透過檢測來自特定 IP 地址的活動或識別一天中某個時間是否存在數量異常多的帖子來發揮作用。

卡莉說,這可能有效,因為“不良行為者少於不良內容”。而不實資訊傳播者集中在網際網路的某些角落。“我們知道,很多東西都來自連結到彼此的少數幾個主要網站,而這些網站的內容是由 LLM 生成的,”她補充道。“如果我們能夠將整個不良網站檢測出來,我們就會突然捕獲大量不良資訊。”此外,卡莉和約翰遜都認為,在小型社交媒體社群層面(例如,特定 Facebook 頁面或 Telegram 頻道的成員釋出的帖子)稽核內容,將比禁止整個類別內容的全面政策更有效。

然而,並非一切都輸給了機器人。儘管人們對人工智慧對選舉的影響存在合理的擔憂,但桑德森和他的同事最近反對過分誇大潛在危害。增加人工智慧內容和機器人活動對人類行為(包括兩極分化、投票選擇和凝聚力)的實際影響仍需要更多研究。桑德森說:“我擔心的恐懼是,我們將花費太多時間試圖識別正在發生的事情,並假設我們知道其影響。” “情況可能是,影響並沒有那麼大,而最大的影響是對它的恐懼,因此我們最終只會侵蝕對資訊生態系統的信任。”

© .