ChatGPT按需生成類人文字的能力已在高等教育中引發了一場危機。教師和教授們感到困惑,不知道該如何應對這種可能使任何學生都能捏造作業而無需實際學習的技術。儘管人們可以理解地想要簡單地禁止它進入課堂,但我(C.W. Howell)在埃隆大學的宗教研究課程中採取了一種替代方法。
相反,我決定讓學生直接與ChatGPT互動。我選擇這樣做有兩個原因。首先,實際上很難甚至不可能禁止它;無論如何,學生們都會使用這種文字生成人工智慧。其次,不幸的是,即使是那些試圖負責任地使用它(即,不只是完全作弊)的學生也並不真正瞭解這項技術。一個常見且關鍵的錯誤是,許多學生錯誤地認為它是一個絕對可靠的搜尋引擎。一位學生試圖將ChatGPT用作研究工具,並且沒有意識到它可以捏造虛假來源和引語,將欺詐性資訊納入了一篇原本無辜的論文中。我的目標是透過向學生講授像ChatGPT這樣的模型的缺陷來防止這種失誤。
為了做到這一點,我建立了一個人工智慧驅動的課堂作業。每個學生都需要從ChatGPT生成自己的文章,並根據我的指示對其進行“評分”。學生們被要求在文件上留下評論,就像他們是教授在評估學生的作品一樣。然後他們回答了我提供的問題:ChatGPT是否捏造了任何來源?如果是,你是如何發現的?它是否正確使用了任何來源?它是否弄錯了任何真實來源?它的論點是有說服力還是膚淺?
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您正在幫助確保未來關於塑造我們當今世界的發現和思想的有影響力的故事。
結果令人大開眼界:63篇文章中的每一篇都包含捏造和錯誤。大多數學生對此感到驚訝,許多人對這項技術的印象不如他們在做作業之前那麼深刻。我希望其他教授和教師也能從將此類作業納入他們的課程中受益。
除了教授人工智慧素養和負責任地使用ChatGPT之外,這項作業還激發了學生們令人興奮和深刻的見解——關於人工智慧在課堂上的使用、寫作論文的目的以及在機器時代作為人類的意義。我邀請了他們中的兩位,Cal Baker和Fayrah Stylianopoulos,分享他們對人工智慧在教育領域的看法和見解。
Cal Baker,大學二年級學生
學校作業最關鍵的要素不是課程材料或成績:學生在完成作業過程中經歷的實際思考過程比僅僅提交完成的任務更重要。工作中的細節很少像這種思考那樣重要。如果學生使用ChatGPT為他們做作業,我擔心他們會錯過這些認知體驗。
在大多數情況下,材料本身很少是佈置學校作業的首要原因;相反,當學生完成作業時,他們大腦中發生的事情才是學校教育的支柱。做數學練習題、綜合來源或寫詩都是提高學生大腦的作業示例。當學生工作時,他們的神經元形成新的連線,使他們下次能夠更快更輕鬆地工作,並提高他們進一步學習和生產力的能力。
使用像ChatGPT這樣的人工智慧完成作業可能會損害學生的認知發展。歐盟2018年關於人工智慧對教育潛在影響的政策報告解釋說,學生的大腦正處於“關鍵發展階段”。它進一步警告說,如果年輕的大腦在關鍵發展階段學會依賴人工認知技術,將會產生“相當根本的後果”。換句話說,如果學生不自己努力完成學校作業,他們可能會錯過發展解決自身問題所需的大腦結構的機會。最近一篇2022年發表在《人工智慧前沿》上的論文得出了類似的結論:作者推測,雖然將任務“認知解除安裝”到人工智慧“可以提高即時任務的績效,但也可能伴隨有害的長期影響。”這些影響可能包括解決問題的能力下降、記憶力變差,甚至學習新事物的能力下降。
從表面上看,一個人練習某件事越多,他就越有可能擅長它。但在更深層次上,學生在進行這些作業時大腦中發生的過程是最重要的部分。如果學生求助於人工智慧而不是自己做作業,他們本應用於該作業的神經通路將會退化而不是形成和重塑。這最終會傷害學生。如果他們依賴於短期內使他們的生活更輕鬆的技術,他們將無法發展他們未來工作所需的能力,從而使他們的生活在長期內更加困難。
Fayrah Stylianopoulos,大學二年級學生
雖然ChatGPT如果被濫用肯定很危險,但我認識到它有潛力在學生的學術旅程中為他們提供支援。在最好的情況下,ChatGPT可以成為一種多功能的資源,為教師和學生帶來新鮮、互動的想法,供他們在課堂上享受。例如,它可以根據標準化的目標建議獨特的學習體驗,起草課程計劃和學生作業提示。ChatGPT甚至可以就學生自己的課堂筆記進行測驗(以簡答題或多項選擇題的形式),但值得注意的是,學生可能透過編寫自己的問題和回憶線索在認知上得到更好的服務。
然而,人工智慧在學術領域的普遍存在迫使學生反思他們是誰,以及ChatGPT是什麼。
人工智慧生成的文字聽起來可能是對的,但連續的可信性與真相不是一回事。為這項作業批改ChatGPT的文章清楚地表明,學生們,出於這個原因和其他原因,比像ChatGPT這樣的大型語言模型聰明得多。不幸的是,很少有人意識到這一點。許多學生在面對這種技術時感到渺小或不聰明。我們需要肯定學生,並在他們心中灌輸自信,讓他們意識到他們的觀點很重要,他們的批判性思維是無法自動化的。
一些批評家將像GPT-3這樣的大型語言模型比作訓練有素的鸚鵡,它們重複熟悉的短語,卻不知道這些短語的微妙語境可能對人類聽眾意味著什麼。如果這種僅僅“聽起來對”的冷漠和超然的先例在課堂上得到獎勵,它將對人類的思維和對話產生悲劇性的同質化影響。我相信,我們對這個世界的命運所共有的基本而深刻的利害關係值得一提,這是人類(也包括鸚鵡)所擁有的,但ChatGPT不具備的。儘管ChatGPT擁有所有令人難以置信的能力,但它對我們或世界沒有任何關係感。這樣一種超然的聲音怎麼能為我們提供我們已經擁有的東西呢?
我擔心,如果學生過度依賴機器學習技術,他們將學會像它一樣思考,並專注於預測最有可能的“正確答案”,而不是批判性地思考並尋求理解細微的思想。科幻小說經常描繪人工智慧接管社會,導致技術奇點(技術不可逆轉地超越人類)和世界末日。但我並不擔心人工智慧會達到我們現在的水平。我更擔心我們可能會退回到人工智慧的水平。
這是一篇觀點和分析文章,作者或多位作者表達的觀點不一定代表《大眾科學》的觀點。
