錯誤逮捕、不斷擴張的監控網路、誹謗和深度偽造色情製品,這些都是目前市場上所謂的“人工智慧”工具已經存在的危險。這些問題,而不是想象中可能毀滅人類的潛力,才是人工智慧的真正威脅。
末日論的炒作圍繞著許多人工智慧公司,但它們的技術已經造成了無數危害,包括在住房、刑事司法和醫療保健方面的例行歧視,以及在非英語語言中仇恨言論和虛假資訊的傳播。演算法管理程式使工人遭受日常的工資盜竊,而且這些程式正變得越來越普遍。
儘管如此,2023年,非營利組織人工智慧安全中心釋出了一份宣告,由數百名行業領袖共同簽署,警告“人工智慧帶來的滅絕風險”,並聲稱這類似於核戰爭和疫情的威脅。Open AI(熱門語言學習模型ChatGPT背後的公司)處境艱難的執行長山姆·奧特曼此前曾在國會聽證會上暗示了這種風險,暗示生成式人工智慧工具可能會“錯得離譜”。2023年夏天,人工智慧公司的幾位高管會見了總統喬·拜登,並就遏制“人工智慧風險的最重要來源”做出了幾項無力的自願承諾,暗示了理論上的末日威脅,而不是強調實際存在的威脅。企業人工智慧實驗室用偽科學研究報告來證明這種姿態是合理的,這些報告將監管注意力轉移到虛構的場景上,並使用危言聳聽的術語,如“生存風險”。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您將幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。
更廣泛的公眾和監管機構絕不能落入這種圈套。相反,我們應該向實踐同行評審的學者和活動家尋求幫助,他們已經反擊了人工智慧的炒作,試圖瞭解人工智慧在此刻此地的有害影響。
由於“人工智慧”一詞含義模糊,因此很難對其進行清晰的討論。從某種意義上說,它是計算機科學的一個子領域的名稱。在另一種意義上,它可以指在該子領域中開發的計算技術,其中大多數技術現在都集中於基於大型資料集的模式匹配以及基於這些模式生成新媒體。在營銷文案和初創公司宣傳材料中,“人工智慧”一詞充當神奇的仙塵,可以為您的業務增添活力。
自從OpenAI在2022年末釋出ChatGPT(以及微軟將該工具整合到其Bing搜尋引擎中)以來,文字合成機器已成為最突出的人工智慧系統。諸如ChatGPT之類的大型語言模型可以生成非常流暢且看似連貫的文字,但它們不理解文字的含義,更不用說推理能力了。(認為情況並非如此就是在沒有理解的情況下強加理解,這是人工智慧鼓吹者純粹出於信仰而做的事情。)這些系統相當於巨大的魔法8號球,我們可以透過將我們傳送給它們的提示框定為問題並將它們的輸出解釋為答案來玩。
不幸的是,這種輸出可能看起來非常合理,以至於在沒有明確表明其合成來源的情況下,它會成為我們資訊生態系統中有害且陰險的汙染物。我們不僅有可能將合成文字誤認為可靠資訊,而且這種非資訊還反映並放大了人工智慧訓練資料中編碼的偏見——就大型語言模型而言,網際網路上發現的各種偏見都是如此。此外,合成文字聽起來很權威,儘管它缺乏對真實來源的引用。這種合成文字的蔓延持續得越久,我們的處境就越糟糕,因為我們越難找到值得信賴的來源,也越難在我們找到它們時信任它們。
銷售這項技術的人們提出,文字合成機器可以修復我們社會結構中的各種漏洞:K-12教育中教師的短缺、低收入人群獲得醫療保健的困難以及無法聘請律師的人們缺乏法律援助,僅舉幾例。
但是,部署這項技術實際上損害了工人。首先,這些系統依賴於從建立它們的藝術家和作者那裡竊取的巨量訓練資料,而沒有給予補償。此外,標記資料以建立旨在防止人工智慧系統最有害的輸出被釋放的“護欄”的任務是重複性的,而且常常是創傷性的勞動,由零工和承包商執行,這些人陷入了全球範圍內工資和工作條件不斷惡化的競爭中。更重要的是,僱主正在尋求透過利用自動化來削減成本,解僱以前穩定工作崗位上的人員,然後以較低的工資重新僱用他們來糾正自動化系統的輸出。這種情況促成了最近好萊塢的演員和編劇罷工,在那裡,收入過高的電影大亨們策劃以一天的工資購買永久權利,以使用人工智慧替代演員,並按件僱用編劇來修改人工智慧產生的語無倫次的劇本。
與人工智慧相關的政策必須是科學驅動的,並建立在相關研究的基礎上,但太多的人工智慧出版物來自企業實驗室或獲得不成比例的行業資助的學術團體。這些出版物中有許多是基於垃圾科學的——它是不可重複的,隱藏在商業秘密背後,充滿了炒作,並且使用的評估方法無法衡量它們聲稱要衡量的東西。
最近的例子包括微軟研究院發表的一篇155頁的預印本論文,題為“通用人工智慧的火花:GPT-4的早期實驗”,該論文聲稱在OpenAI的文字合成機器之一GPT-4的輸出中發現了“智慧”。然後是OpenAI關於GPT-4的自有技術報告,其中聲稱,除其他外,OpenAI系統具有解決訓練資料中未發現的新問題的能力。沒有人可以測試這些說法,因為OpenAI拒絕提供訪問許可權,甚至拒絕描述這些資料。與此同時,“人工智慧末日論者”引用這種垃圾科學,努力將世界的注意力集中在全能機器可能失控並摧毀人類的幻想上。
我們敦促政策制定者借鑑紮實的學術研究,這些研究調查了人工智慧的危害和風險,以及將權力委託給自動化系統所造成的危害,其中包括剝奪窮人的權利以及加強對黑人和原住民家庭的治安。該領域(包括社會科學和理論構建)的紮實研究以及基於該研究的紮實政策將使重點保持在不使用這項技術來傷害人們上。
這是一篇觀點和分析文章,作者或作者表達的觀點不一定代表《大眾科學》的觀點。
