你每天、每時每刻都在做選擇。哲學家們長期以來認為,這種有意行動或具有能動性的能力,將人類與更簡單的生命形式和機器區分開來。但人工智慧可能很快就會超越這種界限,因為科技公司正在構建 AI “代理”——能夠以最少的人工監督做出決策並實現目標的系統。
面對展示數十億美元投資回報的壓力,AI 開發商正在將代理作為下一波消費者技術進行推廣。與聊天機器人一樣,代理利用大型語言模型,並可從手機、平板電腦或其他個人裝置訪問。但與需要持續人工干預才能生成文字或影像的聊天機器人不同,代理可以自主地與外部應用程式互動,代表個人或組織執行任務。OpenAI 已列出 代理的存在是構建 通用人工智慧 (AGI)(在任何認知任務上都能超越人類的人工智慧)的五個步驟中的第三步,並且該公司 據報道 計劃在 1 月份釋出代號為“Operator”的代理。該系統可能只是傾盆大雨中的一滴:Meta 執行長馬克·扎克伯格 預測,AI 代理最終將超過人類的數量。與此同時,一些 AI 專家擔心,代理的商業化對於一個傾向於將速度置於安全之上的行業來說,是一個危險的新步驟。
根據大型科技公司的推銷,代理將把人類工人從繁瑣的工作中解放出來,為更有意義的工作(以及企業巨大的生產力提升)開啟大門。“透過將我們從平凡的任務中解放出來,[代理] 可以使我們專注於真正重要的事情:人際關係、個人成長和知情的決策,”Google DeepMind 的高階研究員 Iason Gabriel 說。去年五月,該公司 釋出 了“Project Astra”的原型,描述 為“在日常生活中有所幫助的通用 AI 代理”。在一個影片演示中,Astra 透過 Google Pixel 手機與使用者對話,並透過裝置的攝像頭分析環境。在某個時刻,使用者將手機舉到同事的電腦螢幕前,螢幕上充滿了程式碼行。AI 用類似人類女性的聲音描述了程式碼——它“定義了加密和解密功能”。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。
Project Astra 預計最早也要到明年才會公開發布,目前可用的代理主要限於單調的勞動,例如編寫程式碼或提交費用報告。這反映了技術限制以及開發人員對在高風險領域信任代理的謹慎態度。“代理應該被部署來執行可以‘非常明確定義’的‘瑣碎和重複性任務’,”基於雲的軟體公司 Salesforce 的首席科學家 Silvio Savarese 說。該公司最近推出了 Agentforce,一個提供代理的平臺,可以處理客戶服務問題並執行其他狹窄的功能。Savarese 表示,他會“非常猶豫”在更敏感的背景下信任代理,例如法律判決。
儘管 Agentforce 和類似的平臺主要面向企業銷售,但 Savarese 預測個人代理最終會興起,個人代理可以訪問您的個人資料並不斷更新他們對您的需求、偏好和怪癖的理解。例如,一個負責規劃您的暑假的基於應用程式的代理可以預訂您的航班、在餐廳預訂餐位並預訂您的住宿,同時記住您對靠窗座位的偏好、您的花生過敏症以及您對帶游泳池的酒店的喜愛。至關重要的是,它還需要對意外情況做出反應:如果最佳航班選項已滿,它需要調整路線(可能透過檢視另一家航空公司)。“適應環境並對環境做出反應的能力對於代理至關重要,”Savarese 說。個人代理的早期迭代可能已經在路上了。例如,據 報道,亞馬遜正在開發代理,這些代理將能夠根據您的線上購物歷史為您推薦和購買產品。
是什麼造就了代理?
企業對 AI 代理的興趣突然激增,掩蓋了它們悠久的歷史。所有機器學習演算法在技術上都是“代理性的”,因為它們不斷“學習”,或根據從海量資料中收集的模式,改進其實現特定目標的能力。“在 AI 領域,幾十年來,我們一直將所有系統視為代理,”加州大學伯克利分校的先驅 AI 研究員和計算機科學家 Stuart Russell 說。“只是有些代理非常簡單。”
但得益於一些新的創新,現代 AI 工具現在正變得更具代理性。其中一項創新是使用數字工具,例如搜尋引擎的能力。透過 10 月份釋出的公開 Beta 測試的新“計算機使用”功能,AI 公司 Anthropic 的 Claude 聊天機器人背後的模型現在可以在顯示使用者桌面截圖後移動游標並單擊按鈕。該公司釋出的一段影片顯示,Claude 正在填寫和提交一份虛構的供應商請求表單。
能動性還與跨時間做出複雜決策的能力相關;隨著代理變得更加先進,它們將被用於更復雜的任務。Google DeepMind 的 Gabriel 設想了一個未來的代理,可以幫助發現新的科學知識。這可能不會太遙遠。8 月份釋出到預印本伺服器 arXiv.org 的一篇 論文 概述了一種“AI 科學家”代理,該代理能夠制定新的研究想法並透過實驗對其進行測試——有效地自動化了科學方法。
儘管能動性和意識之間存在密切的本體論聯絡,但沒有理由相信,在機器中,前者的進步會導致後者的產生。科技公司當然不會將這些工具宣傳為具有任何接近自由意志的東西。使用者可能會將代理 AI 視為有知覺的——但這更多地反映了數百萬年的進化,這些進化使人們的大腦根深蒂固地將意識歸因於任何看起來像人類的東西。
新興的挑戰
代理的興起可能會在工作場所、社交媒體和網際網路以及經濟領域帶來新的挑戰。經過數十年或數百年精心制定的、旨在約束人類行為的法律框架,將需要考慮到人工智慧代理的突然引入,人工智慧代理的行為從根本上不同於我們自己的行為。一些專家甚至堅持認為,對人工智慧更準確的描述是“外星智慧”。
以金融業為例。演算法長期以來一直幫助跟蹤各種商品的價格,並根據通貨膨脹和其他變數進行調整。但代理模型現在開始為個人和組織做出財務決策,這可能會引發一系列棘手的法律和經濟問題。“我們還沒有建立將 [代理] 整合到我們所有規則和結構中的基礎設施,以確保我們的市場執行良好,”約翰·霍普金斯大學人工智慧治理專家 Gillian Hadfield 說。如果代理代表組織簽署合同,後來違反了該協議的條款,那麼應該由組織承擔責任——還是演算法本身?進一步引申,代理是否應該像公司一樣被授予法律“人格”?
另一個挑戰是設計行為符合人類道德規範的代理——在人工智慧領域,這個問題被稱為“對齊”。隨著能動性的增強,人類越來越難以辨別 AI 是如何做出決策的。目標被分解為越來越抽象的子目標,模型偶爾會顯示出無法預測的湧現行為。“從擁有擅長規劃的代理到失去人類控制,存在一條非常清晰的路徑,”幫助發明了神經網路的計算機科學家 Yoshua Bengio 說,神經網路正在推動當前的人工智慧繁榮。
Bengio 認為,對齊問題因大型科技公司的優先事項往往與整個人類的優先事項背道而馳而變得更加複雜。“在賺錢和保護公眾安全之間存在真正的利益衝突,”他說。在 2010 年代,Facebook(現在的 Meta)使用的演算法,鑑於最大化使用者參與度這一看似良性的目標,開始向緬甸的使用者推廣仇恨 內容,反對該國少數民族羅興亞人口。這種策略——演算法在瞭解到煽動性內容更有利於使用者參與後,完全自行決定採取這種策略——最終助長了一場種族清洗運動,導致數千人喪生。隨著演算法變得更具代理性,錯位的模型和人為操縱的風險可能會增加。
代理的監管機構
Bengio 和 Russell 認為,監管 AI 對於避免重蹈覆轍或在未來措手不及是必要的。這兩位科學家都是 2023 年 3 月釋出的 公開信 的 33,000 名簽署者之一,該公開信呼籲暫停 AI 研究六個月,以建立護欄。隨著科技公司競相構建代理 AI,Bengio 敦促採取預防原則:強大的科學進步應緩慢推進,商業利益應讓位於安全。
這一原則在其他美國行業中已經成為常態。一家制藥公司在經過嚴格的臨床試驗並獲得食品和藥物管理局的批准之前,不能釋出一種新藥;一家飛機制造商在沒有獲得聯邦航空管理局的認證之前,不能推出新的客機。雖然已經採取了一些早期的監管步驟——最值得注意的是喬·拜登總統關於 AI 的行政命令(當選總統唐納德·特朗普誓言要廢除該命令)——但目前尚不存在全面的聯邦框架來監督 AI 的開發和部署。
Bengio 警告說,代理商業化的競賽可能會迅速將我們推過一個不歸路。“一旦我們擁有代理,它們將是有用的,它們將具有經濟價值,並且它們的價值將增長,”他說。“一旦政府意識到它們也可能很危險,可能為時已晚,因為經濟價值將變得如此之大,以至於你無法阻止它。”他將代理的興起比作社交媒體的興起,社交媒體在 2010 年代迅速超越了任何有效的政府監管的機會。
當世界準備迎接人工智慧代理的浪潮時,現在比以往任何時候都更迫切地需要行使我們自己的能動性。正如 Bengio 所說,“在跳躍之前,我們需要仔細思考。”
