人工智慧助力快樂教育的願景

以下是我們如何避免這種強大但仍處於新興階段的技術的危險並最大化其益處的方法

加入我們的科學愛好者社群!

本文發表於《大眾科學》的前部落格網路,反映了作者的觀點,不一定代表《大眾科學》的觀點


在2013年的一篇帖子中,Facebook執行長馬克·扎克伯格勾勒了一個“粗略的計劃”,旨在為全世界提供免費的基礎網際網路,從而傳播機會和互聯互通。然而,聯合國人權理事會報告稱,在緬甸,Facebook為實現這一願景所做的努力加速了仇恨言論,煽動了分裂,並在羅興亞種族滅絕中煽動了線下暴力。免費的基礎網際網路現在是對技術對社會影響的複雜性的警示。對於教育領域的人工智慧研究員克里斯,以及科學教育工作者和國際網路政策研究者麗莎來說,這個例子讓人們停下來思考:人工智慧在教育領域可能會產生哪些意想不到的後果?

許多人寄希望於人工智慧驅動的工具來解決擴大優質教育規模的需求,這並非沒有道理。線上課程中教育內容的激增、數字裝置訪問範圍的擴大以及當代人工智慧的復興似乎為大規模提供個性化學習提供了必要的要素。然而,技術在解決社會問題方面有著不良記錄,常常會造成意想不到的傷害。我們能預測哪些負面影響?我們如何改進人工智慧研究人員的目標以解決這些意想不到的後果?

幾十年來,人工智慧在教育領域的聖盃一直是建立自主輔導員:一種可以監控學生進步、瞭解他們所知和動機並提供最佳自適應學習體驗的演算法。有了自主輔導員,學生可以在世界任何地方的家中學習。然而,2020年的自主輔導員與這個理想相去甚遠。使用自主輔導員進行教育通常會讓學生參與到演算法容易解釋的問題中,而不是讓學習者感到快樂。


關於支援科學新聞

如果您喜歡這篇文章,請考慮透過 訂閱來支援我們屢獲殊榮的新聞報道。透過購買訂閱,您正在幫助確保關於當今塑造我們世界的發現和想法的有影響力的故事的未來。


目前的演算法無法解讀動機,也遠不能產生長期的學習收益,而是專注於讓學生在短期內參與進來。技術挑戰是巨大的:構建理想的自主輔導員可能與實現真正通用人工智慧一樣困難。研究界已將此視為一項挑戰:我們只需要克服我們的技術缺陷,即可實現烏托邦式的夢想。

但是,自主輔導員的烏托邦值得我們為之努力嗎?我們提出了一些因使用人工智慧系統(如自主輔導員)而產生的危險,並呼籲研究如何利用人工智慧在教育領域的應用潛力,同時降低風險。我們相信,我們精心開發的人工智慧系統與具有自然智慧的人類協同工作的願景可以支援世界各地廣泛的學習者群體。

將人工智慧融入教育的三個危險

1. 破壞社會情感聯絡和技能。學生去學校的原因有很多,除了死記硬背的知識之外,還包括髮展社會情感技能、人類指導和人類社群。對於人類教師和傳統課堂的所有潛在缺陷,取代這些結構是有代價的。我們中的許多人記得從老師那裡學到東西,他們的指導和引導遠遠超出了他們負責教授的科目。人工智慧會取代這些互動嗎?

此外,孤獨感正在上升,年輕一代比年長一代更孤獨。一項研究發現青少年抑鬱症與螢幕時間之間存在關聯,而那些花時間進行非螢幕活動(如面對面社互動動、體育運動或家庭作業)的青少年則不然。減少螢幕時間可能會顯著提高同理心水平。由於聯合國教科文組織正在考慮重新調整教育目標,以強調發展社會情感能力,從而實現和平與可持續的社會,因此,強迫兒童面對螢幕可能會破壞這些目標。

然而,人工智慧系統往往被設計為最大限度地增加學生線上時間。即使是開發成癮技術的管理人員也瞭解這些風險,因為許多人將自己的孩子送到昂貴的無螢幕私立學校,以享受“人際互動的奢侈”,而較貧困的學生則被推向廉價的技術解決方案。除此之外,人工智慧驅動的學習模組可能會削弱重要的元學習技能,如自我調節能力,因為學生可能會適應機器來完成調節注意力的工作,而未能培養自己這樣做的能力。同樣,學生可能會失去獨立適應現實世界中不提供即時反饋或指導的創造性任務的能力。

與此同時,人工智慧在課堂中引入的干擾可能會蔓延到家庭和社群。包括教師和家長在內的權威人士可能不容易適應完全移植到數字裝置上的課程,無論這些技術展現出多少“人性”。這種抵制在生活貧困的傳統社群中可能最為強烈,其中一些人認為人工智慧技術具有最大的潛在影響,因為不習慣孩子花時間在螢幕上的家庭可能會抵制從人類指導到人工智慧輔導員的轉變。

如果事實證明這些工具在提高知識方面不如我們所希望的那樣好,那麼為了換取較少的人類主導的學習而增加知識獲取的權衡尤其不利。考慮到動機在學習中起著至關重要的作用,以及我們尚未克服的技術挑戰,這是一種明顯的可能性。

2. 在教育中濫用人工智慧以擴大權力。我們還必須考慮,心懷惡意的人會利用新出現的強大而激勵人心的教育工具來教授暴力主題的可能性。正如Facebook的崛起既放大了破壞性組織又放大了民主組織一樣,新出現的有效教學工具可以幫助恐怖分子擴大關於破壞行為的培訓。此外,在人工智慧輔導員中培養類似人類的同理心的目標將需要處理學習者情感和心理狀態的深度個人資料。壓迫性政府會利用從學童時期起收集到的公民的心理情感資料進行迫害或鞏固權力嗎?或者,看似更良性的情況:富人會變得更富嗎?

儘管倡導者鼓吹人工智慧支援的教育工具在全球範圍內實現教育民主化的潛力,但研究人員必須考慮這些工具如何延續或加劇不平等。有權使用數字工具的特權群體成為當前人工智慧演算法的訓練資料來源。當機器學習演算法在某個資料集上進行訓練時(可能是來自美國的白人學生比例過高),結果可能會對來自其他背景的群體產生偏見,因此在用於不同群體時可能無效甚至具有歧視性。

此外,透過集中式模式擴大教育規模會減少決定教授內容的發言權。考慮到教學對於那些教授的人來說也是一種很好的學習工具,因此選擇誰來教授就變成了選擇誰來學習。是的,在幾乎沒有教科書的社群提供新工具將提供一種知識獲取途徑。然而,推廣中央倡導的課程可能會強制執行統一的學習目標,並剝奪當地知識提供者的權力。正如Taskeen Adam所說,“隨著技術在全球範圍內滲透到各個社群,新自由主義價值觀也隨之而來,以至於這些價值觀成為價值體系,當地的、文化的或宗教的價值觀被置於次要地位(如果它們完全符合的話)。”未能考慮到當地的聲音將使這些技術與教育差距最大的社群無關,甚至毫無用處,這些社群可能會完全拒絕這些技術,從而加劇他們試圖糾正的不平等現象。

3. 侵犯兒童權利:缺乏資料隱私和網路安全。當人工智慧針對尚未能同意收集其個人資料的年輕學習者以及可能不瞭解共享個人資料或與網上匿名陌生人互動的風險的最需要幫助的學習者時,如何使用大量個人資料進行個性化學習,同時保護個人隱私和偏好的挑戰上升到了危險的程度。對於那些花時間管理線上互動的人來說,連線世界各地學習者的平臺並非烏托邦。“只要有線上交流和兒童,就會有兒童剝削,”Facebook前首席安全官亞歷克斯·斯塔莫斯說。

安全研究人員通常稱之為“樂高陰莖問題”,指的是一款允許使用者建立和分享樂高結構的樂高大型多人線上遊戲。使用者開始用樂高積木搭建陰莖,並與其他玩家分享。該公司的工作人員感嘆他們無法以足夠快的速度“檢測陰莖”,以防止玷汙其適合兒童的品牌。最終,保持符合美國《兒童線上隱私保護法》的內容稽核被證明過於昂貴,並可能在遊戲的關閉中發揮了作用。

據斯塔莫斯說,從樂高到Roblox再到Fortnite的每個平臺都經歷了各種型別的兒童剝削,而在不太熟悉網際網路的社群中,剝削可能會加劇。為了實現線上教育支援最不發達國家的承諾,研究人員必須考慮到新線上工具使用者在面對惡意行為者(即使是最有經驗的使用者也會被他們利用)時的安全性。

邁向更好的願景

風險的存在並不需要消除我們的樂觀情緒;相反,它可以成為發展更成熟目標的力量。許多人描繪了更好的教育系統的願景。我們呼籲人工智慧研究界和教育政策界共同構想一系列人工智慧教育的宏大挑戰,這些挑戰能更好地符合我們對教育的夢想,並更好地考慮到風險。我們提供六個目標進行討論,並邀請公眾加入對話。

我們將在這裡眾包新想法(署名作者)

1. 利用人工智慧促進更多(和更高質量的)人際學習互動。人工智慧的發展可以支援教育工作者和教育系統,透過自動化任務和開發激動人心的難題來實現,而不是取代教師。教師和工具可以協同工作:教師篩選來自人工智慧的有益建議,並且工具支援教師進行評分和跟蹤學生

2. 利用人工智慧生成啟發性的問題。人工智慧還可以幫助在當地環境中建立和傳播有趣的問題。機器學習可以創作出看起來像倫勃朗作品的繪畫。我們能否也使用演算法來建立引人入勝、個性化的活動?這種結合可以建立一個豐富的教學和學習生態系統,其中社交和情感互動得到加強,而不是被技術取代。

3. 低資料反饋。鼓舞人心、開放式的作業為探索和創造力提供了機會。如果人工智慧的設計旨在支援和提供對此類問題的反饋,它就可以幫助教師。然而,目前的方法需要大量學生的資料庫,才能對開放式作業實現有意義的人工智慧驅動的反饋。我們需要學習在不消耗大量學生資料的情況下實現這一點。低資料人工智慧似乎很有希望,並降低了資料濫用的風險。低資料是實用的,因為解決方案不必等待數百萬學生在每個作業上充當小白鼠來訓練我們的演算法。

4. 利用人工智慧理解過程。目前,人工智慧在教授死記硬背、結構化的課程方面最有效,而不是支援在現代世界蓬勃發展所必需的創造性、開放式、基於團隊的學習。一項當前的研究方向側重於理解過程和學習能力,而不僅僅是最終產品。對於教師(尤其是在大型課堂中)來說,不可能像鋼琴老師對學生的手部姿勢提供反饋那樣關注每一位學生。人工智慧驅動的工具可以與教師協同工作來監控過程,而教師仍然是教練,避免了破壞允許社會情感學習的學校環境。人工智慧和人類智慧的混合模型可以幫助教師深入瞭解學生的學習過程,從而提升教師作為教練和導師的角色。

5. 利用人工智慧翻譯教育內容。內容的傳播一直是不均衡的,尤其是在低資源語言方面。自然語言處理是人工智慧的一個分支,它能夠很好地支援翻譯,這有助於在最需要的地方提供包容性教育,並鼓勵社群從基層開始開發教育技術,而不是由西方強加。

6. 利用人工智慧進行兒童安全風險檢測。應投入大量精力開發可擴充套件的內容稽核工具,以便線上學習空間對所有學習者(例如,來自惡意影像)都是安全的,特別是兒童和處於弱勢環境中的人。

人工智慧在促進快樂學習方面具有巨大潛力,但這隻有在適當解決所討論的擔憂後才能實現。教育政策界和正在開發大規模部署的人工智慧工具的研究人員共同承擔著重大責任。我們必須共同考慮我們技術的各種可能應用,包括有害的應用。我們邀請公眾加入關於這些人工智慧挑戰的對話,以及如何減輕其潛在危害並促進人類的蓬勃發展。

教育人工智慧似乎是一種純粹的優點;然而,在這個領域,就像在醫學領域一樣,也適用希波克拉底誓言:首先,不造成傷害。

Chris Piech is an assistant professor of computer science at Stanford University. He was raised in Kenya and Malaysia. His research uses machine learning to understand human learning.

More by Chris Piech

Lisa Einstein was a Peace Corps volunteer in Guinea from 2016 to 2018. Her career since returning from the Peace Corps has focused on expanding access to impactful digital tools and mitigating harms from emerging technologies.

More by Lisa Einstein
© .