人工智慧如何幫助中國和俄羅斯干預美國選舉

ChatGPT 和類似的 AI 程式為宣傳者和情報人員提供了一個強大的新工具來干預政治。在 2024 年選舉前學會識別這種虛假資訊迫在眉睫

Capitol building in D.C. with blue technology wave

政治和社交媒體的交匯處是人工智慧驅動的虛假資訊的沃土。

以下文章經許可轉載自 The Conversation,這是一個報道最新研究的線上出版物。

世界各地的選舉正面臨著來自外國勢力的不斷演變的威脅,其中就包括人工智慧。


關於支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。 透過購買訂閱,您將幫助確保未來能夠繼續刊登關於塑造我們當今世界的發現和思想的具有影響力的故事。


試圖相互影響選舉的國家在 2016 年進入了一個新時代,當時俄羅斯人發起了一系列針對美國總統選舉的社交媒體虛假資訊宣傳活動。 在接下來的七年中,一些國家(最突出的是中國和伊朗)利用社交媒體來影響外國選舉,包括美國和世界其他地區的選舉。 沒有理由期望 2023 年和 2024 年會有什麼不同。

但出現了一個新要素:生成式人工智慧和大型語言模型。 這些技術能夠快速輕鬆地生成關於任何主題、以任何語氣、從任何角度出發的海量文字。 作為一名 安全專家,我認為它是一種特別適合網際網路時代宣傳的工具。

這一切都非常新。 ChatGPT 於 2022 年 11 月推出。 更強大的 GPT-4 於 2023 年 3 月釋出。 其他語言和影像生成 AI 的出現時間也差不多。 目前尚不清楚這些技術將如何改變虛假資訊,它們將有多有效,或者會產生什麼影響。 但我們即將 выяснить。

選舉的結合

在大部分民主國家,選舉季很快將進入 全面展開 階段。 在現在到明年年底之間,生活在民主國家的人口中,將有 71% 的人參加 национальные 選舉。 其中包括:10 月份的阿根廷和波蘭,1 月份的臺灣,2 月份的印度尼西亞,4 月份的印度,6 月份的歐盟和墨西哥,以及 11 月份的美國。 包括南非在內的九個非洲民主國家將在 2024 年舉行選舉。 澳大利亞和英國沒有固定的日期,但選舉很可能在 2024 年舉行。

其中許多選舉對於過去曾進行過社交媒體影響力行動的國家來說至關重要。 中國非常關心 臺灣印度尼西亞印度許多非洲國家。 俄羅斯關心英國、波蘭、德國和 總體而言的歐盟。 每個人都關心美國。

而這僅僅考慮了最大的參與者。 自 2016 年以來,每次美國全國選舉都伴隨著另一個試圖影響結果的國家。 最初只有俄羅斯,然後是俄羅斯和中國,最近是這兩個國家加上伊朗。 隨著外國影響力行動的經濟成本降低,越來越多的國家可以參與其中。 像 ChatGPT 這樣的工具顯著降低了製作和傳播宣傳的成本,使許多更多國家都能負擔得起這種能力。

選舉干預

幾個月前,我參加了一個會議,與會者來自美國所有的網路安全機構。 他們談到了他們對 2024 年選舉干預的預期。 他們預計通常的參與者——俄羅斯、中國和伊朗——以及一個重要的新參與者:“國內行為者”。 這是成本降低的直接結果。

當然,執行虛假資訊宣傳活動不僅僅是生成內容。 困難的部分是傳播。 宣傳者需要一系列虛假帳戶來發布內容,並需要其他人將其推向主流,使其能夠像病毒一樣傳播。 像 Meta 這樣的公司在識別這些帳戶並將其刪除方面做得越來越好。 就在上個月,Meta 宣佈,它已刪除了與中國影響力宣傳活動相關的 7,704 個 Facebook 帳戶、954 個 Facebook 頁面、15 個 Facebook 群組和 15 個 Instagram 帳戶,並在 TikTok、X(以前的 Twitter)、LiveJournal 和 Blogspot 上識別出數百個更多帳戶。 但那是一場四年前開始的宣傳活動,產生的虛假資訊是前人工智慧時代的。

虛假資訊是一場軍備競賽。 攻擊者和防禦者都得到了改進,但社交媒體的世界也發生了變化。 四年前,Twitter 是媒體的直接渠道,而該平臺上的宣傳是影響政治敘事的一種方式。《哥倫比亞新聞評論》的一項研究發現,大多數主要新聞媒體 使用俄羅斯的推文 作為黨派觀點的來源。 那個幾乎每個新聞編輯都在閱讀它,每個重要人物都在那裡發帖的 Twitter 不復存在了。

許多宣傳機構從 Facebook 轉移到了 Telegram 和 WhatsApp 等訊息平臺,這使得它們更難被識別和刪除。 TikTok 是一個較新的平臺,由中國控制,更適合短小的、煽動性的影片——人工智慧使這些影片更容易製作。 而當前湧現的生成式人工智慧正在 連線到工具,這將使內容分發也變得更加容易。

生成式人工智慧工具還允許新的生產和分發技術,例如大規模的低級別宣傳。 想象一下社交媒體上一個新的 AI 驅動的個人帳戶。 在大多數情況下,它的行為很正常。 它釋出關於其虛假日常生活的帖子,加入興趣小組,評論別人的帖子,並且通常表現得像一個普通使用者。 偶爾,並不經常,它會說——或放大——一些政治性的東西。 這些 人格機器人,正如計算機科學家拉塔尼婭·斯威尼所稱的那樣,它們自身的影響力微乎其微。 但如果複製成千上萬甚至數百萬個,它們將產生更大的影響力。

人工智慧增強的虛假資訊

這只是一種情景。 俄羅斯、中國和其他地方負責選舉干預的軍官很可能讓他們的最優秀人員思考其他情景。 而且他們的策略可能比 2016 年時要複雜得多。

像俄羅斯和中國這樣的國家有在較小國家測試網路攻擊和資訊行動的歷史,然後再大規模推廣。 當這種情況發生時,重要的是能夠識別這些策略的特徵。 反擊新的虛假資訊宣傳活動需要能夠識別它們,而識別它們需要現在就尋找它們並對其進行編目。

在計算機安全領域,研究人員認識到,分享攻擊方法及其有效性是構建強大防禦系統的唯一途徑。 同樣的思路也適用於這些資訊宣傳活動:研究人員越是研究在遙遠國家使用的技術,他們就越能更好地捍衛自己的國家。

人工智慧時代的虛假資訊宣傳活動可能比 2016 年時要複雜得多。 我認為美國需要採取措施來識別和確定人工智慧生成的 臺灣宣傳 的特徵,在那裡,一位總統候選人聲稱一段深度偽造的錄音已經誹謗了他,以及其他地方的宣傳。 否則,當它們來到這裡時,我們將無法看到它們。 不幸的是,研究人員反而正在受到 針對騷擾

也許這一切最終會好起來的。 在生成式人工智慧時代,一些重要的民主選舉沒有出現重大的虛假資訊問題:阿根廷的初選、厄瓜多的第一輪選舉以及泰國、土耳其、西班牙和希臘的全國選舉。 但是,我們越早知道會發生什麼,我們就越能更好地應對即將到來的事情。

本文最初發表於 The Conversation。 閱讀 原文

© .