在Reddit論壇上,許多討論心理健康的使用者都對他們與ChatGPT的互動感到興奮——ChatGPT是OpenAI的人工智慧聊天機器人,它透過預測句子中可能出現的下一個詞來進行類似人類的對話。“ChatGPT比我的治療師更好,”一位使用者寫道,並補充說,當這個人談到他們管理思想的掙扎時,該程式會傾聽並回應。“在一種非常可怕的方式中,我感覺我被ChatGPT‘聽到’了。”其他使用者也談到要求ChatGPT充當治療師,因為他們負擔不起真正的治療師。
這種興奮是可以理解的,特別是考慮到美國和全球範圍內心理健康專業人員的短缺。尋求心理幫助的人們經常面臨漫長的等待名單,而且保險並不總是涵蓋治療和其他心理健康護理。像ChatGPT和谷歌Bard這樣的高階聊天機器人可能有助於進行治療,即使它們最終無法取代治療師。“在醫學領域,沒有哪個地方[聊天機器人]能像在心理健康領域那樣有效,”國家心理健康研究所前所長、Vanna Health的聯合創始人托馬斯· Insel說,Vanna Health是一家將患有嚴重精神疾病的人與護理提供者聯絡起來的初創公司。在心理健康領域,“我們沒有程式:我們有聊天;我們有溝通。”
但許多專家擔心科技公司是否會尊重脆弱使用者的隱私,是否會編寫適當的安全措施以確保人工智慧不會提供不正確或有害的資訊,或者是否會優先考慮針對富裕健康人群的治療,而犧牲患有嚴重精神疾病的人。“我讚賞演算法的改進,但最終我不認為它們會解決人們在尋求幫助時所處的更混亂的社會現實,”加州大學舊金山分校的人類學家朱莉婭·布朗說。
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞事業 訂閱。透過購買訂閱,您正在幫助確保關於塑造我們當今世界的發現和想法的具有影響力的故事的未來。
治療師的助手
“機器人治療師”的概念至少從1990年就已出現,當時計算機程式開始提供心理干預,引導使用者完成諸如認知行為療法等指令碼化程式。最近,像Woebot Health和Wysa提供的那些流行的應用程式採用了更先進的AI演算法,可以與使用者就他們的問題進行對話。兩家公司都表示,他們的應用程式的下載量已超過一百萬次。聊天機器人也已經被用於透過管理標準問卷來篩選患者。英國國家醫療服務系統(NHS)的許多心理健康提供者使用一家名為Limbic公司的聊天機器人來診斷某些精神疾病。
然而,像ChatGPT這樣的新程式在理解人類問題的含義並以現實的方式做出回應方面,比以前的AI要好得多。這些大型語言模型(LLM)聊天機器人經過網際網路上大量文字的訓練,可以採用不同的角色,向用戶提問,並從使用者提供的資訊中得出準確的結論。
Insel說,作為人類提供者的助手,LLM聊天機器人可以極大地改善心理健康服務,特別是在邊緣化、重病患者中。Insel說,心理健康專業人員的嚴重短缺——特別是那些願意與被監禁者和無家可歸者合作的人員——因提供者需要花費大量時間處理文書工作而加劇。像ChatGPT這樣的程式可以輕鬆地總結患者的會話,編寫必要的報告,並讓治療師和精神科醫生有更多時間治療患者。“透過將文件和報告工作解除安裝給機器,我們可以將我們的勞動力擴大40%,”他說。
但是,將ChatGPT用作治療師是一個更復雜的問題。華盛頓大學的計算機科學家蒂姆·奧爾托夫說,雖然有些人可能會對向機器傾訴秘密的想法感到猶豫,但LLM有時可以給出比許多人類使用者更好的回應。他的團隊研究了危機顧問如何在簡訊中表達同情心,並訓練LLM程式根據那些最有效地幫助人們擺脫危機的人所使用的策略,為寫作者提供反饋。
“[治療]不僅僅是將這些輸入到ChatGPT並看看會發生什麼,”奧爾托夫說。他的團隊一直在與非營利組織美國心理健康協會合作,開發一種基於ChatGPT演算法的工具。使用者輸入他們的消極想法,程式會建議他們如何將這些特定的想法重新構建成積極的東西。到目前為止,已有超過5萬人使用了該工具,奧爾托夫說,與提供預設回覆的類似工具相比,使用者完成該程式的可能性高出七倍以上。
富有同情心的聊天機器人也可能對同伴支援小組(如TalkLife和Koko)有所幫助,在這些小組中,沒有經過專門培訓的人員向其他使用者傳送有益的、令人振奮的訊息。在1月份發表在《自然-機器智慧》雜誌上的一項研究中,當奧爾托夫和他的同事讓同伴支持者使用富有同情心的聊天機器人制作訊息時,他們發現近一半的接收者更喜歡在聊天機器人的幫助下編寫的文字,而不是完全由人類編寫的文字,並將它們評為同情心高出20%。
但是,讓人參與其中仍然很重要。在Koko聯合創始人羅布·莫里斯在Twitter上描述的一項實驗中,該公司領導者發現,使用者通常可以分辨出回覆是否來自機器人,並且一旦他們知道訊息是人工智慧生成的,他們就不喜歡這些回覆。(該實驗在網上引起了強烈反對,但莫里斯表示,該應用程式包含一個說明,告知使用者訊息部分由人工智慧編寫。)莫里斯說,看來“即使我們犧牲了效率和質量,我們還是更喜歡以前存在的人際互動的混亂”。
研究人員和開發心理健康聊天機器人的公司堅持認為,他們不是試圖取代人類治療師,而是補充他們。Woebot Health的首席專案官約瑟夫·加拉格爾說,畢竟,人們可以隨時與聊天機器人交談,而不僅僅是在他們可以預約的時候。這可以加快治療過程,人們可以開始信任機器人。治療師和客戶之間的聯絡或治療聯盟被認為是治療有效性的很大一部分原因。
在對36,000名使用者進行的一項研究中,不使用ChatGPT的Woebot Health的研究人員發現,根據用於衡量治療聯盟的標準問卷調查,與人類治療師的數週時間相比,使用者在四天內與該公司的聊天機器人建立了信任關係。加拉格爾說,“我們從人們那裡聽到,‘我不可能對人類說這些’”,“這降低了風險,減少了脆弱性。”
外包護理的風險
但一些專家擔心,這種信任可能會適得其反,特別是如果聊天機器人不準確的話。一種名為自動化偏差的理論表明,人們更傾向於信任來自機器的建議,而不是來自人類的建議——即使它是錯誤的。荷蘭阿姆斯特丹UMC的臨床心理學研究員Evi-Anne van Dis說,“即使它是美麗的廢話,人們也更傾向於接受它。”*
而且聊天機器人能夠提供的建議質量仍然有限。他們可能無法捕捉到人類會認為指示問題的的資訊,例如一個嚴重體重不足的人詢問如何減肥。Van Dis擔心,如果人工智慧程式訓練所用的醫學文獻(可能來自富裕的西方國家)包含偏見,那麼人工智慧程式將對某些人群產生偏見。他們可能會忽略精神疾病表達方式的文化差異,或者根據使用者用第二語言寫作的方式得出錯誤的結論。
最大的擔憂是,聊天機器人可能會透過建議某人停止治療,甚至透過提倡自殘來傷害使用者。最近幾周,國家飲食失調協會(NEDA)因關閉其以前由人工接聽的熱線而受到抨擊,轉而使用名為Tessa的聊天機器人,該聊天機器人並非基於生成式人工智慧,而是向用戶提供指令碼化的建議。根據一些使用者的社交媒體帖子,Tessa有時會提供減肥技巧,這可能會刺激患有飲食失調症的人。NEDA於5月30日暫停了該聊天機器人,並在宣告中表示,它正在審查所發生的事情。
Limbic的執行長羅斯·哈珀在談到尚未為醫療目的而調整的人工智慧聊天機器人時說,“就目前的形式而言,它們不適用於臨床環境,在臨床環境中,信任和準確性至關重要。”他擔心,不修改底層演算法以納入良好的科學和醫療實踐的心理健康應用程式開發人員可能會無意中開發出有害的東西。“這可能會使整個領域倒退,”哈珀說。
Wysa的臨床開發和研究主管Chaitali Sinha說,在政府弄清楚如何監管像ChatGPT這樣的人工智慧程式時,她的行業正處於一種不確定的狀態。“如果你不能監管它,你就不能在臨床環境中使用它,”她說。Van Dis補充說,公眾對科技公司如何收集和使用使用者輸入聊天機器人的資訊知之甚少——這引發了人們對潛在的機密性洩露的擔憂——或者對聊天機器人最初是如何訓練的也知之甚少。
Limbic正在測試一款基於ChatGPT的治療應用程式,它試圖透過新增一個單獨的程式來解決這個問題,該程式將ChatGPT的回覆限制在循證治療範圍內。哈珀說,即使關於底層人工智慧程式的法律仍在制定中,衛生監管機構也可以評估和監管這種以及類似的“層”程式,將其作為醫療產品。
Wysa目前正在向美國食品和藥物管理局(FDA)申請將其提供認知行為療法的聊天機器人批准為醫療裝置,Sinha說這可能在一年內實現。Wysa使用一種非ChatGPT的人工智慧,但Sinha表示,一旦法規變得更加明確,該公司可能會考慮生成式人工智慧。
布朗擔心,在沒有法規到位的情況下,情緒脆弱的使用者將被迫自行判斷聊天機器人是否可靠、準確和有幫助。她還擔心,營利性聊天機器人將主要為“有憂慮的健康人群”——那些有能力負擔治療和應用程式訂閱費用的人——開發,而不是為那些可能風險最高但不知道如何尋求幫助的孤立個體開發。
最終,Insel說,問題是某些治療是否比沒有治療更好。“當存在深厚的聯絡時,治療效果最好,但這通常不是許多人發生的情況,而且很難獲得高質量的護理,”他說。要培訓足夠的治療師來滿足需求幾乎是不可能的,專業人士和精心開發的聊天機器人之間的合作可以極大地減輕負擔。“讓一支由掌握這些工具的人組成的大軍是擺脫困境的方法,”Insel說。
*編者注(2023年5月26日):這句話在釋出後經過編輯,以更正Evi-Anne van Dis目前的隸屬關係。
