今年一月份,奈卡·維南特自殺身亡,這位邁阿密地區的青少年在 Facebook 流行的影片直播功能 Facebook Live 上直播了兩個小時。她的一個朋友看到了這段影片並報警,但援助人員未能及時趕到,挽救這位 14 歲少女的生命。其他年輕人最近也在包括 Twitter、Tumblr 和 Live.me 在內的社交媒體平臺上釋出了自殺資訊。
為了拯救生命,Facebook 和其他社交媒體巨頭現在正在涉足自殺預防工作——建立新的警報系統,旨在更好地識別和幫助有風險的個人。上週三,Facebook 公佈了一套新的工具,包括該公司首個用於發現可能自殺或有輕微自殘風險的使用者的模式識別演算法。Facebook 表示,新的工作將幫助它標記令人擔憂的帖子,並將使用者與心理健康服務聯絡起來。這也代表了其機器學習的新前沿。
心理學家丹尼爾·雷登伯格說,自殺現在是該國第十大死因,也是青少年第二大死因,因此社交媒體可能是一個重要的干預點。他是 Facebook 的合作心理健康組織之一 Save.org 的執行董事。Facebook 目前報告稱,全球每天有超過 10 億使用者。在美國,根據皮尤研究中心的兩份 2015 年報告,71% 的 13 至 17 歲青少年和 62% 的 18 歲以上成年人在 Facebook 上有賬號。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您正在幫助確保有關塑造當今世界的發現和想法的有影響力的故事的未來。
為了接觸到有風險的使用者,Facebook 表示正在擴充套件其服務,允許朋友舉報包含任何自殺或自殘計劃跡象的帖子,併為這些人和舉報他們的朋友提供一系列選項。選擇包括呼叫熱線、提示聯絡朋友以及在危機時刻該做什麼的提示。此工具現在也可用於 Facebook 直播。包括 Twitter、Pinterest 和 YouTube 在內的許多社交媒體平臺都存在類似的舉報系統。Facebook 現在還在試點一項計劃,允許人們使用其即時訊息應用程式 Messenger 直接與危機支援組織的輔導員聯絡,包括 Crisis Text Line 和 全國自殺預防生命線 (NSPL)。
Facebook 還計劃使用模式識別演算法來識別可能存在自殘風險的人,併為他們提供幫助資源。該公司表示,其新的 AI 人工智慧程式最初將在有限的基礎上推出,將採用機器學習來識別暗示自殺想法的帖子——即使 Facebook 上沒有人舉報過。
Facebook 的發言人威廉·內維厄斯說,機器學習演算法將使用兩個訊號——一個是使用者帖子中與自殺或自殘相關的詞語或短語,另一個是來自擔心朋友的評論——來確定某人是否有風險。如果模式識別程式識別出令人擔憂的帖子,“舉報帖子”按鈕將會更突出地顯示,以在視覺上鼓勵使用者點選它。“希望人工智慧學習能夠從各個點獲取多個訊號,[將它們]整合在一起並激活響應,既針對可能面臨風險的人,也針對其他[可以幫助]的人,”雷登伯格在一封電子郵件中寫道。
如果這些線索發出更高程度的緊急訊號,系統將自動提醒 Facebook 的社群運營團隊——這是一個由提供技術支援並監控站點是否存在欺凌或駭客攻擊等問題的員工組成的團隊。該團隊將快速審查該帖子,並確定該人是否需要額外支援。如果是,他們將確保使用者在其新聞提要上看到一個資源頁面。(該頁面通常只會在帖子被擔心的朋友舉報時彈出。)
為了幫助其人工智慧學習標記令人擔憂的帖子,Facebook 挖掘了“數萬個被擔心另一位朋友的朋友舉報的帖子,”NSPL 的專案主管約翰·德雷珀解釋說,NSPL 也是 Facebook 的合作組織。
雖然目前的演算法僅限於文字,但 Facebook 最終也可能使用 AI 來識別令人擔憂的照片和影片。執行長馬克·扎克伯格 上個月宣佈,該公司一直在“研究可以檢視照片和影片以標記我們團隊應審查的內容的系統”,作為評估包括自殺、欺凌和騷擾在內的舉報內容的一部分。“這仍處於非常早期的開發階段,但我們已經開始讓它檢視一些內容,它已經產生了大約三分之一的所有向審查我們社群內容的團隊提交的報告,”扎克伯格寫道。內維厄斯沒有提供有關何時應用這些額外工具的資訊。
早期訊號
一些心理健康專家表示,僅透過語言來識別自殺風險的 AI 仍然有限。“我認為 [機器學習] 是朝著正確方向邁出的一步,”佛羅里達州立大學研究自殺風險的心理學家 約瑟夫·富蘭克林 說。富蘭克林和他的同事最近對 1965 年至 2014 年的 365 項研究進行了 薈萃分析。他們發現,儘管進行了數十年的研究,專家檢測未來自殺企圖的能力仍然沒有比碰運氣好。“只有一個微小的預測訊號,”富蘭克林說。這些限制促使他和其他人致力於開發機器學習演算法,透過分析電子健康記錄中的資料來幫助評估風險。“健康記錄的侷限性在於……我們可以準確預測 [風險] 隨時間的變化,但我們不知道他們哪一天會企圖自殺,”富蘭克林說。他補充說,社交媒體可能有助於更清楚地瞭解時間安排。但是,這也仍然存在關鍵的侷限性:“即使使用更復雜的自然語言處理,也無法僅從文字中獲取太多資訊,因為人們可能會出於許多不同的原因使用‘自殺’或‘自殺’之類的詞語,而且你不知道某人是否以特定的方式使用它。”
一些研究人員,如心理健康分析公司 Qntfy 的創始人兼執行長格倫·科珀史密斯,僅在語言中就發現了有用的訊號。在對公開可用的 Twitter 資料進行 最近的檢查中,科珀史密斯和他的同事發現,帖子的情感內容(包括文字和表情符號)可能表明存在風險。然而,他指出,這些仍然只是“拼圖中的小塊”,並補充說,“另一方面,即非語言訊號,是時間安排。” “Facebook 掌握著您何時登入、何時聊天……以及您在哪些小時登入的資訊,[這些] 都是非常有趣的訊號,可能與您是否面臨自殺的近期風險相關。”
猶他大學研究退伍軍人自殺風險的研究員克雷格·布萊恩已經開始研究自殺路徑中時間安排的重要性。“在我們較新的研究中,我們一直在研究序列出現的時間模式——[我們發現]它不僅僅是有大量關於抑鬱症或酗酒的帖子,例如,[而是]你寫它們的順序,”他說。
西雅圖兒童醫院專門研究青少年醫學的兒科醫生梅根·莫雷諾說,另一個需要考慮的重要因素,尤其是對青少年來說,是他們語言變化的頻率。在 2016 年的一項研究中,莫雷諾和同事發現,在 Instagram(一個用於分享照片和影片的社交媒體平臺)上,一旦與自傷相關的標籤被禁止或標記為有害,就會出現許多衍生版本。例如,當 Instagram 遮蔽 #selfharm 時,就會出現帶有替代拼寫(#selfharmmm 和 #selfinjuryy)或俚語(#blithe 和 #cat)的替代品。“我仍然認為,機器學習總是會落後於青少年交流方式幾步,”莫雷諾說。“儘管我很欽佩這些努力,但我認為我們不能僅僅依靠它們來了解孩子是否在掙扎。”
佛羅里達州立大學將機器學習應用於自殺預防研究的心理學家傑西卡·裡貝羅說:“最重要的是,鑑於很多人透過社交媒體聯絡,這絕對是一項很有意義的工作。”“與此同時,他們受到該領域科學未知因素的限制——不幸的是,儘管進行了數十年的研究,我們仍然瞭解不多。”
