本週,來自世界各地的大約 150 位政府和行業領導人,包括副總統卡瑪拉·哈里斯和億萬富翁埃隆·馬斯克,齊聚英國參加英國人工智慧安全峰會。這次會議是全球討論如何監管人工智慧的焦點。但對於一些專家來說,這也突顯出人工智慧公司在對話中扮演的過分重要的角色——以犧牲許多可能受到影響但在人工智慧成功中沒有經濟利益的人為代價。
11 月 1 日,來自 28 個國家和歐盟的代表簽署了一項名為《布萊切利宣言》的協議(以峰會舉辦地英國布萊切利布萊切利公園命名),他們在協議中同意繼續討論如何安全部署人工智慧。但對於論壇十分之一的參與者來說,其中許多人代表民間社會組織,在英國進行的對話還不夠好。
在《布萊切利宣言》之後,11 個與會組織釋出了一封公開信,稱峰會專注於未來的潛在風險——例如恐怖分子或網路犯罪分子利用生成式人工智慧,或者更科幻的想法,即人工智慧可能變得有感知能力,擺脫人類控制並奴役我們所有人——這對世界是一種傷害。該信表示,峰會忽視了人工智慧已經存在的真實且當前的風險,包括歧視、經濟 displacement、剝削和其他形式的偏見。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您將幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。
非營利組織民主與技術中心 (CDT) 的執行長兼宣告簽署人之一亞歷山德拉·裡夫·吉文斯說:“我們擔心,峰會狹隘地關注長期安全危害可能會分散人們對政策制定者和公司解決人工智慧系統已經影響人們權利的方式的迫切需求的注意力。”她說,隨著人工智慧發展如此迅速,專注於避免理論上的未來風險的規則,佔用了許多人認為可以更好地用於撰寫解決當前危險的立法的精力。
其中一些危害的出現是因為生成式人工智慧模型是在從網際網路獲取的資料上訓練的,這些資料包含偏見。因此,此類模型產生的結果會偏向某些群體,而使其他群體處於不利地位。例如,如果您要求影像生成人工智慧生成執行長或商業領袖的影像,它將向用戶展示中年白人男性的照片。與此同時,CDT 自身的研究強調了非英語使用者因使用生成式人工智慧而處於不利地位,因為大多數模型的訓練資料都是英語。
然而,對於一些強大的人工智慧公司(包括 OpenAI,該公司開發了 ChatGPT)來說,更遙遠的未來風險情景顯然是優先事項。許多簽署公開信的人認為,人工智慧行業在塑造諸如布萊切利公園峰會等重大相關事件中具有過大的影響力。例如,峰會的官方日程安排用“前沿人工智慧”一詞描述了當前大量生成式人工智慧工具,這與人工智慧行業在其自我監管監督機構前沿模型論壇的命名中使用的術語相呼應。
透過對這些事件施加影響,強大的公司在塑造官方人工智慧政策方面也發揮著不成比例的作用——這種情況被稱為“監管俘獲”。因此,這些政策往往優先考慮公司利益。斯坦福大學網路政策中心國際政策主任瑪麗特耶·沙克說:“為了擁有民主的程序,這個程序應該是獨立的,而不是公司俘獲的機會。”
例如,大多數私營公司並不優先考慮開源人工智慧(儘管也有例外,例如 Meta 的 LLaMA 模型)。在美國,在英國峰會開始前兩天,喬·拜登總統釋出了一項行政命令,其中包括一些學術界人士認為有利於私營部門參與者而犧牲開源人工智慧開發者的條款。“這可能會對開源 [AI]、開放科學和人工智慧的民主化產生巨大影響,”佐治亞理工學院計算機副教授馬克·裡德爾說。 10 月 31 日,非營利組織 Mozilla 基金會釋出了一封單獨的公開信,強調人工智慧模型的開放性和安全性的必要性。其簽署者包括紐約大學人工智慧教授兼 Meta 首席人工智慧科學家 Yann LeCun。
一些專家只是要求監管機構將對話範圍擴大到人工智慧公司主要擔心的範圍之外——未來通用人工智慧 (AGI) 之手帶來的生存風險——擴大到更廣泛的潛在危害目錄。對於其他人來說,即使是更廣泛的範圍也不夠好。
人工智慧公司 Hugging Face 的首席倫理科學家瑪格麗特·米切爾說:“雖然我完全理解關於 AGI 風險分散注意力以及對企業同化的擔憂的觀點,但我開始擔心,即使試圖關注風險也對企業過度有幫助,而犧牲了人們的利益。”(該公司派代表參加了布萊切利公園峰會,但米切爾本人當時在美國參加了紐約州參議員查克·舒默同時舉行的論壇。)
米切爾說:“人工智慧監管應該以人為本,而不是以技術為本。” “這意味著[應該]減少關注‘這項技術可能會做什麼壞事,以及我們如何對其進行分類?’,而更多地關注‘我們應該如何保護人們?’”米切爾對基於風險的方法的謹慎態度部分是因為如此多的公司非常願意在本週的英國峰會和其他類似活動中籤署該方法。“這立即給我敲響了警鐘,”她說,並補充說她在舒默的論壇上也提出了類似的觀點。
米切爾主張對人工智慧監管採取基於權利的方法,而不是基於風險的方法。布魯金斯學會研究員奇納薩·T·奧科洛也贊同這一點,她參加了英國的活動。她說:“峰會上的主要對話圍繞著‘前沿模型’對社會構成的風險展開,但忽略了人工智慧對資料標記員造成的危害,而資料標記員可以說是人工智慧開發中最重要的人。”
專門關注人權將對話置於政治家和監管機構可能更舒適的領域。米切爾認為,這將有助於立法者自信地制定立法,以保護更多面臨人工智慧危害風險的人。它還可以為那些渴望保護其現有地位及其數十億美元投資的科技公司提供一種妥協方案。她說:“透過政府關注權利和目標,你可以將政府最擅長的自上而下的監管,與開發者最擅長的自下而上的監管結合起來。”
