以下文章經 The Conversation 許可轉載, 這是一個報道最新研究的線上出版物。
2023年是人工智慧發展及其在社會中作用的轉折點。 這一年見證了 生成式人工智慧的出現, 這項技術從幕後走向公眾視野的中心舞臺。 它還見證了 人工智慧初創公司 的 董事會鬧劇 在 新聞 週期 中 佔據 了 好幾天。 並且 它 見證 了 拜登 政府 釋出 了 一項 行政 命令 , 以及 歐盟 透過 一項 旨在 監管 人工智慧 的 法律 , 這些 舉措 或許 最好 被 描述 為 試圖 給 一匹 已經 飛奔 的 馬 套上 韁繩。
關於支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。 透過購買訂閱,您將有助於確保未來能夠繼續講述關於塑造我們當今世界的發現和想法的具有影響力的故事。
我們召集了一個人工智慧學者小組,展望2024年,描述人工智慧開發者、監管機構和普通民眾可能面臨的問題,並提出他們的希望和建議。
凱西·費斯勒,科羅拉多大學博爾德分校資訊科學副教授
2023年是人工智慧炒作之年。 無論敘事是人工智慧將拯救世界還是毀滅世界,人們常常感覺對人工智慧未來可能樣子的設想壓倒了當前的現實。 儘管我認為預測未來的危害是克服科技領域道德債務的關鍵組成部分,但過度沉迷於炒作可能會創造出一種人工智慧的願景,它看起來更像魔法,而不是一種仍然可以透過明確選擇來塑造的技術。 但要掌控局面,就需要更好地理解這項技術。
2023年人工智慧的主要辯論之一是關於ChatGPT和類似聊天機器人在教育中的作用。 去年這個時候,最相關的頭條新聞集中在學生可能如何使用它作弊,以及教育工作者如何爭先恐後地阻止他們這樣做——其方式往往弊大於利。
然而,隨著時間的推移,人們逐漸認識到,不教學生了解人工智慧可能會使他們處於劣勢,許多學校撤銷了禁令。 我認為我們不應該徹底改革教育,將人工智慧置於一切事物的中心,但如果學生不瞭解人工智慧的工作原理,他們就不會理解它的侷限性——因此也就不會理解它在哪些方面有用和適用,以及在哪些方面不適用。 這不僅僅適用於學生。 人們越瞭解人工智慧的工作原理,他們就越有能力使用它和批判它。
因此,我對2024年的預測,或者說我的希望是,將會掀起一場學習的熱潮。 1966年,ELIZA聊天機器人的創造者約瑟夫·魏澤鮑姆寫道,機器“通常足以讓即使是最有經驗的觀察者也眼花繚亂”,但一旦用“足夠淺顯的語言解釋其內部運作,使其變得易於理解,它的魔力就會消失”。 生成式人工智慧的挑戰在於,與ELIZA非常基本的模式匹配和替換方法相比,要找到“足夠淺顯”的語言來使人工智慧的魔力消失要困難得多。
我認為這是有可能實現的。 我希望那些競相聘請更多人工智慧技術專家的大學,也能在聘請人工智慧倫理學家方面投入同樣的精力。 我希望媒體 outlets 能夠幫助人們認清炒作。 我希望每個人都能反思自己對這項技術的使用及其後果。 我希望科技公司在考慮哪些選擇將繼續塑造未來時,能夠傾聽知情的批評。
肯塔羅·託亞瑪,密歇根大學社群資訊學教授
1970年,人工智慧先驅和神經網路懷疑論者馬文·明斯基告訴《生活》雜誌,“在三到八年內,我們將擁有一臺具有普通人一般智力的機器。” 隨著奇點的到來,人工智慧與人類智慧相匹配並開始超越人類智慧的時刻——尚未完全到來——可以肯定地說,明斯基的預測至少偏離了10倍。 對人工智慧做出預測是危險的。
不過,對未來一年的預測似乎沒有那麼冒險。 2024年人工智慧會有什麼期望? 首先,比賽開始了! 自明斯基的黃金時代以來,人工智慧的進步一直很穩定,但2022年ChatGPT的公開發布引發了一場為利潤、榮譽和全球霸權而進行的全面競爭。 預計會出現更強大的人工智慧,以及大量新的AI應用程式。
最大的技術問題是人工智慧工程師能在多快和多徹底地解決深度學習目前的阿喀琉斯之踵——可以稱之為廣義的硬推理,比如演繹邏輯。 對現有的神經網路演算法進行快速調整是否就足夠了,還是像神經科學家加里·馬庫斯建議的那樣,需要一種根本不同的方法? 大量人工智慧科學家正在研究這個問題,因此我預計2024年會有一些進展。
與此同時,新的AI應用也可能導致新的問題。 您可能很快就會開始聽到人工智慧聊天機器人和助手相互對話,代表您進行完整的對話,但卻在您背後進行。 其中一些會失控——可笑、悲慘或兩者兼而有之。 儘管新興的監管,但難以檢測的深度偽造、人工智慧生成的影像和影片可能會氾濫成災,對個人和各地的民主制度造成更多骯髒的損害。 而且,很可能會出現甚至在五年前都不可能出現的新型別的人工智慧災難。
說到問題,那些對人工智慧發出最響亮警報的人——比如埃隆·馬斯克和山姆·奧特曼——似乎無法阻止自己構建更強大的人工智慧。 我預計他們會繼續做更多同樣的事情。 他們就像縱火犯,呼喚自己煽動的火焰,懇求當局約束他們。 因此,我最希望2024年能夠實現的目標——儘管這似乎進展緩慢——是在國家和國際層面加強人工智慧監管。
安賈娜·蘇薩拉,密歇根州立大學資訊系統教授
自從ChatGPT問世以來的一年裡,生成式人工智慧模型的發展仍在以驚人的速度繼續。 與一年前的ChatGPT不同,後者以文字提示作為輸入併產生文字輸出,新一代生成式人工智慧模型被訓練成多模態的,這意味著用於訓練它們的資料不僅來自維基百科和Reddit等文字來源,還來自YouTube上的影片、Spotify上的歌曲以及其他音訊和視覺資訊。 藉助新一代多模態大型語言模型(LLM)為這些應用程式提供支援,您可以使用文字輸入來生成影像和文字,還可以生成音訊和影片。
各公司競相開發可以部署的LLM,使其可以在各種硬體上和各種應用程式中部署,包括在您的智慧手機上執行LLM。 這些輕量級LLM和開源LLM的出現可能會迎來一個自主人工智慧代理的世界——一個社會不一定為此做好準備的世界。
這些先進的人工智慧功能在從商業到精準醫療等應用中提供了巨大的變革力量。 我主要擔心的是,如此先進的功能將為區分人類生成的內容和人工智慧生成的內容帶來新的挑戰,並帶來新型的演算法危害。
生成式人工智慧產生的合成內容氾濫可能會釋放出一個世界,在這個世界裡,惡意的人和機構可以製造合成身份並策劃大規模虛假資訊。 大量旨在利用演算法過濾器和推薦引擎的人工智慧生成的內容可能很快就會壓倒搜尋引擎、社交媒體平臺和數字服務提供的資訊驗證、資訊素養和意外發現等關鍵功能。
聯邦貿易委員會已就人工智慧輔助內容創作的便利性所帶來的欺詐、欺騙、侵犯隱私和其他不正當行為發出警告。 雖然YouTube等數字平臺已經制定了政策指南,用於披露人工智慧生成的內容,但像聯邦貿易委員會這樣的機構和致力於隱私保護的立法者(如《美國資料隱私和保護法案》)需要對演算法危害進行更嚴格的審查。
國會中引入了一項新的兩黨法案,旨在將演算法素養編纂為數字素養的關鍵組成部分。 隨著人工智慧日益融入人們所做的一切,顯然現在是時候將重點從作為技術組成部分的演算法轉向考慮演算法執行的背景:人、過程和社會。
本文最初發表於 The Conversation 。 閱讀 原文 。
