以下文章經允許轉載自 The Conversation,這是一個涵蓋最新研究的線上出版物。本文已由作者為《大眾科學》修改,可能與 原文不同。
組織機構是否可以利用像 ChatGPT 這樣的人工智慧語言模型來誘導選民以特定的方式行事?
關於支援科學新聞
如果您喜歡這篇文章,請考慮訂閱以支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關當今塑造我們世界的發現和想法的具有影響力的故事的未來。
參議員喬希·霍利在 2023 年 5 月 16 日美國參議院關於人工智慧的聽證會上向 OpenAI 執行長山姆·奧特曼提出了這個問題。奧特曼回答說,他確實擔心有些人可能會使用語言模型來操縱、說服選民並與他們進行一對一的互動。
以下是奧特曼可能設想/考慮到的情景:想象一下,不久之後,政治技術人員開發出一種名為 Clogger 的機器——一個黑箱中的政治競選活動。Clogger 不懈地追求一個目標:最大化其候選人(購買 Clogger Inc. 服務的競選活動)在選舉中獲勝的機會。
雖然像 Facebook、Twitter 和 YouTube 這樣的平臺使用人工智慧的形式來讓使用者在他們的網站上花費更多時間,但 Clogger 的人工智慧將有一個不同的目標:改變人們的投票行為。
Clogger 的工作原理
作為研究技術與民主交叉點的政治科學家和法學學者,我們認為,像 Clogger 這樣的東西可以利用自動化來大幅提高自 2000 年代初以來政治競選活動使用的行為操縱和微定位技術的規模,並可能提高其有效性。正如廣告商現在利用您的瀏覽和社交媒體歷史來單獨定位商業和政治廣告一樣,Clogger 會關注您——以及數億其他選民——個人。
與目前最先進的演算法行為操縱技術相比,它將提供三個進步。首先,它的語言模型會生成專門為您量身定製的訊息——文字、社交媒體和電子郵件,可能還包括影像和影片。廣告商有策略地投放相對較少的廣告,而像 ChatGPT 這樣的語言模型可以在整個競選過程中為您個人生成無數獨特的訊息——為其他人生成數百萬條訊息。
其次,Clogger 將使用一種稱為強化學習的技術來生成越來越有可能改變您投票的訊息。強化學習是一種機器學習的試錯方法,計算機在其中採取行動並獲得有關哪些行動效果更好的反饋,以便學習如何實現目標。能夠下圍棋、國際象棋和許多電子遊戲比任何人類都更好的機器都使用了強化學習。
最後,在整個競選過程中,Clogger 的訊息可能會不斷演變,以考慮您對先前訊息的回覆以及它在改變他人想法方面所瞭解到的資訊。Clogger 會隨著時間的推移與您——以及數百萬其他人——進行動態的“對話”。Clogger 的訊息類似於跟蹤您在不同網站和社交媒體上的廣告。
人工智慧的本質
還有三個值得注意的特性——或者說是漏洞。
首先,Clogger 傳送的訊息可能不一定與政治相關。該機器的唯一目標是最大化選票份額,並且它可能會設計出任何人類競選者都不會考慮到的實現此目標的策略。
一種可能性是向可能的對手選民傳送有關他們在體育或娛樂方面的非政治熱情的資訊,以掩蓋他們收到的政治資訊。另一種可能性是傳送令人反感的訊息——例如,定時傳送與對手訊息重合的失禁廣告。另一種可能性是操縱選民的社交媒體群組,讓人感覺他們的家人、鄰居和朋友都支援它的候選人。
其次,Clogger 不關心真相。事實上,它無法知道什麼是真,什麼是假。語言模型“幻覺”對於這臺機器來說不是問題,因為它的目標是改變您的投票,而不是提供準確的資訊。
最後,由於它是一種黑箱型人工智慧,因此人們無法知道它使用哪些策略。
Clogocracy(Clogger統治)
如果共和黨總統競選活動在 2024 年部署 Clogger,民主黨競選活動可能會被迫採取類似的措施,也許會使用類似的機器。稱之為 Dogger。如果競選經理認為這些機器有效,那麼總統競選很可能會變成 Clogger 對陣 Dogger,而獲勝者將是更有效的機器的客戶。
最終獲勝的內容將來自一個只關注勝利,沒有自己政治思想的人工智慧,而不是來自候選人或政黨。從這個非常重要的意義上講,贏得選舉的將是一臺機器而不是一個人。選舉將不再是民主的,即使所有普通的民主活動——演講、廣告、訊息、投票和計票——都已發生。
透過人工智慧選舉產生的總統可能會走兩條路中的一條。他或她可以使用選舉的幌子來推行共和黨或民主黨的政策。但是,由於政黨思想可能與人們投票的原因關係不大——Clogger 和 Dogger 不關心政策觀點——總統的行為不一定反映選民的意願。選民會被人工智慧操縱,而不是自由選擇自己的政治領導人和政策。
另一條路是總統推行該機器預測將最大限度地提高連任機會的訊息、行為和政策。在這條道路上,總統除了維持權力之外,沒有特定的綱領或議程。總統在 Clogger 的指導下所採取的行動最有可能操縱選民,而不是服務於他們的真正利益,甚至總統自己的意識形態。
避免 Clogocracy(Clogger統治)
如果候選人、競選活動和顧問都放棄使用此類政治人工智慧,則可以避免人工智慧操縱選舉。我們認為這是不太可能的。如果開發出在政治上有效的黑箱,競爭壓力將使它們的使用幾乎不可抗拒。事實上,政治顧問很可能認為使用這些工具是他們幫助候選人獲勝的職業責任所要求的。一旦一個候選人使用這種有效的工具,就很難指望對手透過單方面解除武裝來抵抗。
加強隱私保護將有所幫助。Clogger 將依賴於訪問大量個人資料,以便定位個人、製作量身定製的訊息以說服或操縱他們,並在整個競選過程中跟蹤和重新定位他們。公司或政策制定者拒絕該機器的每一條資訊都會降低其有效性。
另一個解決方案在於選舉委員會。他們可以嘗試禁止或嚴格監管這些機器。關於這種“複製品”言論,即使其本質上是政治性的,是否可以受到監管,存在著激烈的辯論。美國極端的言論自由傳統導致許多主要學者認為它不能。
但是沒有理由自動將《第一修正案》的保護範圍擴充套件到這些機器的產品。國家很可能會選擇賦予機器權利,但這應該是一個基於當今挑戰的決定,而不是基於錯誤地假設詹姆斯·麥迪遜在 1789 年的觀點旨在適用於人工智慧。
歐盟監管機構正在朝著這個方向發展。政策制定者修改了歐洲議會關於其《人工智慧法案》的草案,將“影響競選活動中選民的人工智慧系統”指定為“高風險”,並受到監管審查。
一個在憲法上更安全(如果規模較小)的步驟,已經在歐洲網際網路監管機構和加利福尼亞州部分採用,是禁止機器人冒充人。例如,法規可能要求,當廣告包含的內容是由機器而不是人生成時,競選資訊應附帶免責宣告。
這類似於廣告免責宣告要求——“由薩姆·瓊斯國會委員會支付”——但經過修改以反映其人工智慧來源:“此人工智慧生成的廣告由薩姆·瓊斯國會委員會支付。”更強的版本可能需要:“此人工智慧生成的訊息由薩姆·瓊斯國會委員會發送給您,因為 Clogger 預測這樣做會將您投票給薩姆·瓊斯的機會提高 0.0002%。”至少,我們認為選民有權知道何時是機器人在與他們交談,並且他們也應該知道原因。
像 Clogger 這樣的系統存在的可能性表明,通往人類集體無力感的道路可能並不需要某種超人的通用人工智慧。它可能只需要那些過於熱衷的活動家和顧問,他們擁有強大的新工具,能夠有效地觸動數百萬人的眾多痛點。
這是一篇觀點和分析文章,作者或作者表達的觀點不一定代表《大眾科學》的觀點。
本文最初發表於The Conversation。閱讀原文。
