以下文章經許可轉載自 The Conversation,這是一個報道最新研究的線上出版物。
我和我的同事們發現,人們與線上演算法的日常互動 影響了他們如何向他人學習,其負面後果包括社會誤解、衝突和虛假資訊的傳播。
關於支援科學新聞業
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞業 訂閱。 透過購買訂閱,您將幫助確保有關塑造我們當今世界的發現和思想的具有影響力的故事的未來。
人們越來越多地在社交媒體環境中與他人互動,在這些環境中,演算法控制著他們看到的社交資訊流。演算法部分決定了社交媒體使用者看到哪些資訊、哪些人和哪些想法。
在社交媒體平臺上,演算法主要 旨在放大維持參與度的資訊,這意味著它們讓人們不斷點選內容並返回平臺。 我是一名 社會心理學家,我和我的同事們發現了證據,表明這種設計的一個副作用是演算法放大了人們強烈傾向於學習的資訊。 我們將此資訊稱為“PRIME”,代表著聲望(prestigious)、群體內(in-group)、道德(moral)和情感(emotional)資訊。
在我們的進化史中,學習 PRIME 資訊的偏見非常有利: 向有聲望的人學習是高效的 ,因為這些人是成功的,他們的行為可以被複制。 關注違反道德規範的人很重要,因為 制裁他們有助於社群維持合作。
但是,當 PRIME 資訊被演算法放大,並且有些人利用演算法放大來推銷自己時,會發生什麼? 聲望變得難以作為成功的訊號,因為人們可以在社交媒體上偽造聲望。 新聞提要充斥著負面和道德資訊,導致衝突而非合作。
人類心理學和演算法放大的相互作用導致功能失調,因為社會學習支援合作和解決問題,但社交媒體演算法旨在增加參與度。 我們將這種不匹配稱為 功能錯位。
為何重要
演算法介導的社會學習中功能錯位的關鍵結果之一是,人們開始對他們的社會世界形成不正確的認知。 例如,最近的研究表明,當演算法有選擇地放大更極端的政治觀點時,人們開始 認為他們的政治群體內和群體外比實際情況更加分裂。 這種“虛假兩極分化”可能成為 更大的政治衝突的重要來源。
功能錯位也可能導致虛假資訊傳播更廣。 最近的一項研究表明,傳播 政治虛假資訊的人利用道德和情感資訊 ——例如,引發道德憤怒的帖子——以便讓人們更多地分享它。 當演算法放大道德和情感資訊時,虛假資訊也會被納入放大範圍。
正在進行的其他研究
總的來說,關於這個主題的研究仍處於起步階段,但正在出現新的研究, examining 演算法介導的社會學習的關鍵組成部分。 一些研究表明, 社交媒體演算法顯然放大了 PRIME 資訊。
這種放大是否會導致線下兩極分化目前備受爭議。 最近的一項實驗發現證據表明 Meta 的新聞提要增加了兩極分化,但另一項與 Meta 合作的實驗 發現沒有證據表明 由於接觸其演算法 Facebook 新聞提要而導致兩極分化加劇。
需要進行更多研究,以充分了解當人類和演算法在社會學習的反饋迴圈中互動時出現的後果。 社交媒體公司擁有大部分所需資料,我相信他們應該在平衡隱私等倫理問題的同時,讓學術研究人員訪問這些資料。
下一步是什麼
一個關鍵問題是如何使演算法促進準確的人類社會學習,而不是利用社會學習偏差。 我的研究團隊正在研究新的演算法設計,這些設計在增加參與度的同時 也懲罰 PRIME 資訊。 我們認為,這可能會維持社交媒體平臺尋求的使用者活動,同時也使人們的社會認知更加準確。
本文最初發表於 The Conversation。 閱讀 原文。
