臉書舉報人作證稱公司演算法存在危險:原因在此

弗朗西絲·豪根證實了最大化使用者參與度嘗試所造成的負面影響

Frances Haugen testifying.

前臉書員工和舉報人弗朗西絲·豪根於 2021 年 10 月 5 日在華盛頓特區國會山作證。

以下文章經許可轉載自 The Conversation這是一個報道最新研究的線上出版物。

前臉書產品經理弗朗西絲·豪根於 2021 年 10 月 5 日在美國參議院作證時表示,該公司社交媒體平臺“危害兒童,煽動分裂並削弱我們的民主”。


關於支援科學新聞

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞工作 訂閱。 透過購買訂閱,您正在幫助確保未來能夠看到關於塑造當今世界的發現和想法的有影響力的故事。


豪根是《華爾街日報》對該公司進行揭露的主要來源。她稱臉書的演算法很危險,表示臉書高管意識到這種威脅,但將利潤置於人民之上,並呼籲國會監管該公司。

社交媒體平臺嚴重依賴人們的行為來決定您看到的內容。特別是,他們會關注人們透過點贊、評論和分享來回應或“參與”的內容。 水軍農場,即傳播煽動性內容的組織,透過複製高參與度內容並 將其作為自己的內容釋出 來利用這一點,這有助於他們接觸到廣泛的受眾。

作為一名 計算機科學家,我研究了大量人群使用技術互動的方式,我理解在這些演算法中使用 群體智慧 的邏輯。我也看到社交媒體公司在實踐中這樣做存在重大缺陷。

從稀樹草原上的獅子到臉書上的點贊

群體智慧的概念假設,使用來自他人行為、觀點和偏好的訊號作為指導將導致合理的決策。 例如,集體預測 通常比個人預測更準確。集體智慧被用來預測 金融市場,體育選舉 甚至 疾病爆發

在數百萬年的進化過程中,這些原則以認知偏差的形式被編碼到人腦中,這些認知偏差的名稱包括 熟悉度單純接觸效應從眾效應。如果每個人都開始奔跑,您也應該開始奔跑;也許有人看到獅子來了,奔跑可以救您的命。您可能不知道為什麼,但稍後提出問題更明智。

您的大腦會從環境中(包括您的同伴)獲取線索,並使用 簡單的規則 來快速將這些訊號轉化為決策:與贏家同行、遵循大多數人、複製您的鄰居。這些規則在典型情況下效果非常好,因為它們基於合理的假設。例如,它們假設人們通常會理性行事、許多人不太可能犯錯、過去可以預測未來等等。

技術允許人們從數量更多的人那裡獲取訊號,而他們中的大多數人都不認識。人工智慧應用程式大量使用這些受歡迎程度或“參與度”訊號,從選擇搜尋引擎結果到推薦音樂和影片,以及從建議好友到對新聞訂閱源中的帖子進行排名。

並非所有走紅的內容都值得走紅

我們的研究表明,幾乎所有的網路技術平臺,例如社交媒體和新聞推薦系統,都具有很強的 受歡迎程度偏差。當應用程式由參與度等提示驅動,而不是由顯式搜尋引擎查詢驅動時,受歡迎程度偏差可能會導致有害的意外後果。

像臉書、Instagram、Twitter、YouTube 和 TikTok 等社交媒體嚴重依賴人工智慧演算法來對內容進行排名和推薦。 這些演算法會將您喜歡、評論和分享的內容(換句話說,就是您參與的內容)作為輸入。這些演算法的目標是透過找出人們喜歡的內容並將其排在他們訂閱源的頂部來最大化參與度。

臉書演算法入門。

表面上看這似乎是合理的。如果人們喜歡可信的新聞、專家意見和有趣的影片,那麼這些演算法應該識別出這種高質量的內容。但是,群體智慧在這裡做了一個關鍵假設:推薦受歡迎的內容將有助於高質量的內容“浮出水面”。

我們透過研究一種使用質量和受歡迎程度相結合來對專案進行排名的演算法,測試了這個假設。我們發現,一般來說,受歡迎程度偏差更有可能降低內容的整體質量。原因是,當很少有人接觸到某個專案時,參與度並不是質量的可靠指標。在這些情況下,參與度會產生嘈雜的訊號,並且該演算法可能會放大這種初始噪音。一旦低質量專案的受歡迎程度足夠大,它將繼續被放大。

演算法並不是唯一受參與度偏差影響的因素,它也可能 影響人們。證據表明,資訊是透過“複雜傳染”傳播的,這意味著人們在網上接觸某個想法的次數越多,他們就越有可能採用並重新分享它。當社交媒體告訴人們某個專案即將走紅時,他們的認知偏差就會發揮作用,並轉化為一種不可抗拒的衝動,即關注它並分享它。

不太明智的群體

我們最近使用 一個名為 Fakey 的新聞素養應用程式 進行了一項實驗。這是一個由我們的實驗室開發的遊戲,它模擬了臉書和推特的新聞訂閱源。玩家會看到來自假新聞、垃圾科學、極端黨派和陰謀論來源以及主流來源的當前文章的混合內容。他們因分享或喜歡來自可靠來源的新聞以及標記低可信度文章以進行事實核查而獲得積分。

我們發現,當玩家可以看到許多其他使用者參與了這些文章時,玩家 更有可能喜歡或分享文章,而不太可能標記 來自低可信度來源的文章。因此,接觸到參與度指標會造成漏洞。

群體智慧之所以失敗,是因為它建立在群體是由多樣化的獨立來源組成的錯誤假設之上。這可能有幾個原因。

首先,由於人們傾向於與相似的人交往,他們的線上社群不是很多樣化。社交媒體使用者可以輕鬆地取消與他們意見不合的人的好友關係,這會將人們推入同質化的社群,通常被稱為 迴音室

其次,由於許多人的朋友是彼此的朋友,他們會相互影響。 一項 著名的實驗 表明,瞭解您的朋友喜歡什麼音樂會影響您自己宣告的偏好。 您渴望保持一致的社會願望會扭曲您的獨立判斷。

第三,受歡迎程度訊號可能會被操控。多年來,搜尋引擎開發了複雜的技術來對抗所謂的“連結農場”和其他操縱搜尋演算法的計劃。 另一方面,社交媒體平臺才剛剛開始瞭解它們自己的 漏洞

旨在操縱資訊市場的人員建立了 虛假帳戶,如水軍和 社交機器人,以及 有組織虛假網路。他們已經 淹沒了網路,以營造一種 陰謀論政治候選人 很受歡迎的假象,從而同時欺騙了平臺演算法和人們的認知偏差。他們甚至 改變了社交網路的結構,以製造 關於多數意見的錯覺

降低參與度

該怎麼辦?科技平臺目前處於守勢。 他們在選舉期間變得更加 激進取締虛假賬戶和有害的虛假資訊。 但這些努力可能類似於一場 打地鼠 遊戲。

另一種預防方法是增加 摩擦。 換句話說,減慢資訊傳播的速度。 諸如自動點贊和分享等高頻率行為可能會受到 CAPTCHA 測試(需要人工響應)或費用的抑制。 這不僅會減少操縱的機會,而且隨著資訊減少,人們將能夠更多地關注他們看到的內容。 這將減少參與度偏差影響人們決策的空間。

如果社交媒體公司調整其演算法,減少對參與度訊號的依賴,而更多地依賴質量訊號來確定它們為您提供的內容,這將有所幫助。 也許舉報人的爆料將提供必要的推動力。

本文最初發表於 The Conversation閱讀 原始文章

Filippo Menczer is Distinguished Professor of Informatics and Computer Science and director of the Observatory on Social Media at Indiana University Bloomington. He studies the spread of disinformation and develops tools for countering social media manipulation.

More by Filippo Menczer

Curated by professional editors, The Conversation offers informed commentary and debate on the issues affecting our world.

More by The Conversation US
© .