拜登關於人工智慧的行政命令是一個良好的開端,專家表示,但還不夠

本週簽署的一項新的行政命令為聯邦人工智慧標準和要求奠定了基礎,並超越了之前與人工智慧公司達成的自願協議

President Joe Biden sits at a desk signing an executive order. Vice President Kamala Harris stands to his left

10月30日,美國總統喬·拜登在白宮東廳簽署了一項側重於政府人工智慧監管的行政命令。

美國現在擁有迄今為止影響最廣泛的官方人工智慧政策。喬·拜登總統本週簽署了一項行政命令,敦促制定新的聯邦人工智慧安全、保障和可信賴性標準,並解決人工智慧風險和發展的許多其他方面。這項廣泛的命令近20000字,使用“人工智慧”一詞來指代可以模仿某些人類能力的自動化預測、感知或生成軟體。白宮的這項行動發生在英國組織和主辦的國際人工智慧安全峰會開幕前兩天,屆時世界各國領導人將討論關於快速發展技術的全球戰略。

杜克大學計算機科學家辛西婭·魯丁說:“這有點像我們所希望的那樣。”她研究機器學習,並倡導人工智慧監管。魯丁並不認為拜登的命令是完美的,但她稱其在字面意義上的規模和可能的影響上都是“非常非常大的”:“它涉及大量的政府實體,並啟動了新的監管和安全委員會,這些委員會將人工智慧作為其主要任務進行研究,而不僅僅是副業。”

斯坦福大學研究人工智慧治理的法律和政治學教授丹尼爾·何也同意:“白宮在這項行政命令中納入了很多內容。”“我確實認為這是一個非常重要的進步。”(何在國家人工智慧諮詢委員會任職,但在《大眾科學》上以個人身份發言,而不是作為NAIAC成員。)


關於支援科學新聞

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們今天世界的發現和思想的具有影響力的故事的未來。


人工智慧——特別是生成式人工智慧系統,如OpenAI的ChatGPT——的迅速崛起,在過去一年中引發了強烈的擔憂。關於未來機器人接管存在一些生存恐懼,但非常具體和可證明的風險也正在當下展開。

例如,人工智慧模型顯然加劇了透過視覺深度偽造和即時文字生成造成的虛假資訊問題。機器學習演算法已經編碼了偏見,這些偏見可能會放大和自動化現有的歧視模式,例如演算法化的美國國稅局工具,該工具不成比例地針對黑人納稅人進行審計。這些偏見可以長期影響人類行為,新興研究表明。透過人工智慧系統收集的大量資料(包括面部識別軟體)中存在隱私威脅,並被用於訓練新的生成式人工智慧模型。人工智慧也可能成為主要的國家安全威脅;例如,人工智慧模型可能被用於加速新型化學武器的開發。

埃默裡大學法學院研究倫理人工智慧的教授伊費奧馬·阿朱恩瓦說:“人工智慧需要被治理,因為它具有力量。”她補充說,“人工智慧工具可以以可能對社會造成災難性後果的方式被使用。”

新命令使美國朝著更全面的AI治理邁進。它建立在拜登政府先前的行動之上,例如多家大型科技公司在7月份同意的自願承諾清單和一年前釋出的人工智慧權利法案藍圖。此外,該政策還遵循了另外兩項先前以人工智慧為重點的行政命令:一項是關於聯邦政府自身對人工智慧的使用,另一項旨在促進聯邦政府在人工智慧領域的招聘。然而,與之前的行動不同,新簽署的命令超越了一般原則和指導方針;一些關鍵部分實際上要求科技公司和聯邦機構採取具體行動。

例如,新命令規定,人工智慧開發商在公開發布未來大型人工智慧模型或此類模型的更新版本之前,必須與美國政府共享安全資料、培訓資訊和報告。具體而言,該要求適用於包含“數百億引數”的模型,這些模型在廣泛的資料上進行訓練,並可能對國家安全、經濟、公共衛生或安全構成風險。這項透明度規則可能適用於OpenAI的GPT的下一個版本,即為其聊天機器人ChatGPT提供支援的大型語言模型。拜登政府正在根據《國防生產法》(1950年的一項法律,與戰時聯絡最緊密,尤其是在COVID疫情早期被用於增加N95口罩的國內供應)實施這一要求。這項要求公司與聯邦政府共享其人工智慧模型資訊的規定是朝著強制科技公司透明化邁出的第一步,儘管是有限的一步,許多人工智慧專家近幾個月來一直在倡導這種透明化。

白宮的政策還要求建立聯邦標準和測試,這些標準和測試將由國土安全部和能源部等機構部署,以更好地確保人工智慧不會威脅國家安全。相關標準將部分由國家標準與技術研究院制定,該研究院於1月份釋出了其自身的人工智慧風險管理框架。開發過程將包括“紅隊演練”,即仁慈的駭客與模型的建立者合作,搶先分析出漏洞。

除了這些強制措施外,行政命令主要建立了工作組和諮詢委員會,啟動了報告倡議,並指示聯邦機構在明年內釋出關於人工智慧的指導方針。該命令涵蓋了一份情況說明書中概述的八個領域:國家安全、個人隱私、公平和公民權利、消費者保護、勞工問題、人工智慧創新和美國競爭力、人工智慧政策方面的國際合作以及聯邦政府內部的人工智慧技能和專業知識。在這些總括類別中,有關於評估和促進人工智慧在教育、醫療保健和刑事司法中合乎道德使用的章節。

魯丁說:“這是許多方向上的許多第一步。”她指出,雖然該政策本身不是一項嚴格意義上的監管,但它是“監管的重要先導,因為它透過所有人工智慧專項工作組以及機構的研發工作收集了大量資料”。她解釋說,收集此類資訊對於下一步至關重要:為了監管,你首先需要了解正在發生的事情。

亞利桑那州立大學研究人工智慧治理的法學教授加里·馬錢特說,透過在聯邦政府內部制定人工智慧標準,行政命令可能有助於建立新的AI規範,這些規範可能會滲透到私營部門。他說,該命令“將產生涓滴效應”,因為政府很可能繼續成為人工智慧技術的主要購買者。“如果作為客戶的政府需要它,那麼它將在許多情況下全面實施。”

但是,僅僅因為該命令旨在迅速刺激資訊收集和政策制定,併為每個行動設定了最後期限,但這並不意味著聯邦機構將按時完成這份雄心勃勃的任務清單。何說:“這裡的一個警告是,如果你沒有人力資本,特別是技術專業知識的形式,那麼可能很難始終如一且迅速地實施這些型別的要求。”他暗示,根據2023年斯坦福報告,在人工智慧領域獲得博士學位的人中,只有不到百分之一的人進入政府部門工作。何追蹤了先前關於人工智慧的行政命令的結果,發現不到一半的強制行動得到了可驗證的實施。

而且,儘管新政策範圍廣泛,但仍然存在明顯的漏洞。魯丁指出,行政命令沒有提及專門保護生物特徵資料(包括面部掃描和聲音克隆)的隱私。阿朱恩瓦說,她本希望看到更多關於評估和減輕人工智慧偏見和歧視性演算法的執行要求。斯坦福大學以人為本人工智慧研究所隱私和資料政策研究員詹妮弗·金說,在解決政府在國防和情報應用中使用人工智慧方面存在差距。“我擔心人工智慧在軍事背景下以及在監視方面的使用。”

何補充說,即使在命令似乎涵蓋其基礎的地方,在“政策制定者的期望與技術上可行的內容之間可能存在相當大的錯配”。他指出,“水印”是其中的一箇中心例子。新政策命令商務部在未來八個月內確定標記人工智慧生成內容的最佳實踐——但目前還沒有成熟、穩健的技術方法來實現這一點。

最後,僅憑行政命令不足以解決先進人工智慧帶來的所有問題。行政命令本質上權力有限,很容易被撤銷。即使是該命令本身也呼籲國會透過資料隱私立法。何說:“立法行動在未來發展中非常重要。”金同意。“我們需要針對人工智慧監管的多個方面的具體私營部門立法,”她說。

儘管如此,每位《大眾科學》就該命令採訪或通訊的專家都將其描述為向前邁出的有意義的一步,填補了政策空白。多年來,歐盟一直在公開致力於制定《歐盟人工智慧法案》,該法案即將成為法律。但美國未能取得類似的進展。隨著本週的行政命令,人們正在努力跟進,並且地平線上出現了轉變——只是不要期望它們明天就會到來。金說,該政策“不太可能改變人們目前對人工智慧的日常體驗。”

*編者注(2023年11月3日):本句在釋出後經過編輯,以澄清詹妮弗·金在斯坦福大學以人為本人工智慧研究所的職稱。

© .