越來越多的研究人員和科技公司開始挖掘社交媒體,尋找自殺想法的警告訊號。他們的努力建立在新興證據的基礎上,這些證據表明,一個人的社交媒體帖子的語言模式,以及他們與智慧手機互動的潛意識方式,都可能暗示精神問題。
企業剛剛開始測試自動檢測此類訊號的程式。例如,位於加利福尼亞州帕洛阿爾託的應用程式開發商 Mindstrong 正在開發和測試機器學習演算法,將人們使用的語言和他們的行為(例如智慧手機上的滾動速度)與抑鬱症和其他精神疾病的症狀聯絡起來。明年,該公司將擴大其研究範圍,重點關注與自殺想法相關的行為,這最終可以幫助醫療保健提供者更快地發現患者的自殘意圖。11 月下旬,Facebook 宣佈在全球大部分地區推出自己的自動化自殺預防工具。科技巨頭蘋果和谷歌也在進行類似的嘗試。
一些精神衛生專業人士希望這些工具可以幫助減少自殺人數,自殺人數在美國正在上升,自殺是 15 至 34 歲人群的第二大死因。俄亥俄州立大學哥倫布分校的社會工作研究員 Scottye Cash 表示,年輕人更有可能在社交媒體上尋求幫助,而不是去看治療師或撥打危機熱線。
關於支援科學新聞
如果您喜歡這篇文章,請考慮支援我們屢獲殊榮的新聞報道,方式是 訂閱。透過購買訂閱,您正在幫助確保關於當今塑造我們世界的發現和想法的具有影響力的故事的未來。
但 Cash 和其他專家對隱私和公司有限的透明度感到擔憂,尤其是在缺乏數字干預有效的證據的情況下。威斯康星大學麥迪遜分校的兒科醫生 Megan Moreno 表示,Facebook 使用者有權知道他們的資訊是如何被使用的,以及會產生什麼影響。“這些[工具]效果如何?它們是否會造成傷害,它們是否能拯救生命?”
機器干預
馬薩諸塞州劍橋市哈佛大學的心理學家 Matthew Nock 表示,有自殺風險的人很難被識別,至少在短期內是這樣,因此自殺很難預防。根據 Nock 的說法,大多數試圖自殺的人在與精神衛生專業人員交談時都否認考慮過自殺。然而,社交媒體提供了即時瞭解他們情緒的視窗。“我們可以把實驗室帶到個人身邊,”Nock 說。
紐約市危機簡訊熱線的首席資料科學家 Bob Filbin 表示,機器學習演算法可以透過識別人類可能錯過的模式,幫助研究人員和顧問識別何時社交媒體上的情緒帖子是玩笑、正常焦慮的表達還是真正的自殺威脅。
透過分析危機簡訊熱線上的 5400 萬條訊息(該熱線使人們可以透過簡訊與顧問交談),Filbin 和他的同事發現,正在考慮結束生命的人很少使用“自殺”這個詞;諸如“布洛芬”或“橋”之類的詞是自殺想法的更好指標。Filbin 聲稱,藉助這些見解,危機簡訊熱線的顧問通常可以在三條訊息內確定他們是否應該提醒緊急救援人員迫在眉睫的威脅
Mindstrong 的總裁 Thomas Insel 表示,從一個人的裝置收集“被動”資料可能比讓他們回答問卷更具資訊量。Mindstrong 的應用程式將由精神保健提供者安裝在患者的手機上,並在後臺執行,收集資料。在它開發出個人典型數字行為的概況後,將能夠檢測到令人擔憂的變化,Insel 說。該公司已與醫療保健公司合作,以幫助使用者在應用程式發現問題時獲得醫療服務。
“我不太相信任何要求某人在危機時刻開啟應用程式的事情會很有用,”Insel 說。
它會有效嗎?
更大的問題可能是如何以及何時進行干預。Nock 說,誤報率可能會居高不下,因此醫生或公司使用技術來檢測自殺風險將不得不決定在傳送幫助之前需要什麼程度的確定性。
Moreno 說,也沒有什麼證據表明諸如自殺熱線之類的資源可以挽救生命,而干預措施可能會適得其反,使人們感到更加脆弱。例如,她和其他人發現,人們有時會遮蔽報告包含可能的自殺威脅的社交媒體帖子的朋友,從而使朋友將來不太可能報告這些帖子。
Facebook 新的自殺預防計劃主要依靠使用者報告以及掃描帖子中“危險訊號”的專有演算法,然後聯絡使用者或提醒人工稽核員。稽核員決定是否警告使用者網路中的人員,提供指向危機簡訊熱線等資源的連結或通知緊急救援人員。
但是,該公司不會提供有關演算法或稽核員如何工作的詳細資訊,發言人也不會說明是否會跟進使用者以驗證演算法或評估干預措施的有效性。Facebook 發言人在一份宣告中表示,這些工具是“與專家合作開發”的,使用者無法選擇退出該服務。
該公司嚴守秘密的做法讓一些研究人員感到擔憂。“他們有責任將所有決定都建立在證據的基礎上,”Cash 說。然而,該公司提供的外部專家可以用來判斷其計劃的資訊很少。
儘管如此,Insel 很高興 Facebook 正在嘗試。“你必須把這放在我們現在所做的事情的背景下,”他說,“那就是不起作用。”
本文經許可轉載,並於 2017 年 12 月 12 日首次發表。
