人工智慧(AI)在醫療保健領域正處於一個轉折點。經過 50 年的演算法和軟體開發,已經產生了一些強大的方法來從大資料中提取模式。例如,深度學習神經網路已被證明在影像分析方面有效,從而產生了首個獲得美國食品藥品監督管理局(FDA)批准的人工智慧輔助診斷,僅使用患者眼睛的照片來診斷一種稱為糖尿病視網膜病變的眼部疾病。
然而,人工智慧在醫療保健領域的應用也暴露了其許多弱點,世界衛生組織(WHO)最近的一份指導檔案中概述了這些弱點。該檔案涵蓋了一長串主題,每一個都和前一個一樣重要:負責任的、可問責的、包容的、公平的、符合道德的、無偏見的、響應迅速的、可持續的、透明的、值得信賴的和可解釋的人工智慧。這些對於提供醫療保健以及在我們以患者的最大利益為首要考慮因素時如何對待醫學至關重要。
不難理解為什麼演算法可能存在偏見、排斥性、不公平或不道德。這可以用其開發人員可能沒有賦予它區分好壞資料的能力來解釋,或者他們沒有意識到資料問題,因為這些問題通常源於歧視性的人類行為。一個例子是根據膚色無意識地對急診室患者進行不同的分類。演算法擅長利用這些型別的偏見,而讓他們意識到這些偏見可能具有挑戰性。正如世界衛生組織指導檔案所建議的那樣,我們必須仔細權衡人工智慧的風險和潛在的好處。
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過 訂閱來支援我們屢獲殊榮的新聞報道。透過購買訂閱,您正在幫助確保有關當今塑造我們世界的發現和想法的具有影響力的故事的未來。
但是,更難以理解的是為什麼人工智慧演算法可能不透明、不值得信任和不可解釋。透明意味著很容易理解人工智慧演算法,它是如何工作的以及幕後進行工作的計算機程式碼。這種透明度,加上嚴格的驗證,可以建立對軟體的信任,這對於患者護理至關重要。不幸的是,醫療保健行業使用的大多數人工智慧軟體都來自商業實體,他們需要保護智慧財產權,因此不願意洩露他們的演算法和程式碼。這可能會導致對人工智慧及其工作的缺乏信任。
當然,信任和透明是值得追求的目標。但是解釋呢?理解人工智慧或人工智慧渴望成為什麼的最好方法之一是思考人類如何解決醫療保健挑戰並做出決定。當面對具有挑戰性的患者時,諮詢其他臨床醫生是很常見的。這利用了他們的知識和經驗基礎。諮詢人類的優勢之一是我們可以用“為什麼”的問題來跟進一個答案。
“為什麼你認為這種治療是最好的行動方案?”
“為什麼你推薦這個程式?”
一位優秀的臨床醫生顧問應該能夠解釋為什麼他們會提出特定的建議。不幸的是,現代人工智慧演算法很少能夠回答他們為什麼認為某個答案是好答案的問題。這是信任的另一個維度,可以幫助解決偏見和道德問題,也可以幫助臨床醫生從人工智慧中學習,就像他們從人類顧問那裡學習一樣。
我們如何才能實現可解釋的人工智慧?有趣的是,醫療保健領域最早成功的人工智慧演算法之一是 MYCIN 程式,由醫生和計算機科學家愛德華·肖特利夫在 1970 年代初開發,用於為重症監護病房的患者開抗生素。MYCIN 是一種被稱為專家系統的人工智慧,它可以透過回溯其機率計算來回答“為什麼?”問題,以告知使用者它是如何得出答案的。
這是人工智慧領域的一個重要進步,我們似乎在尋求效能更好的演算法時失去了它。如果演算法的開發者真正瞭解它的工作原理,那麼可解釋的人工智慧應該是可能的。這僅僅是將時間和精力投入到跟蹤演算法的迭代過程中,並以人類可以理解的形式向用戶呈現它得出答案的路徑的問題。
換句話說,這應該只是開發人員優先考慮的問題。任何複雜到開發人員都無法理解其工作原理的人工智慧演算法,可能都不適合醫療保健。
我們在人工智慧領域取得了巨大的進步。我們都對人工智慧如何幫助患者感到非常興奮。我們對人工智慧的失敗也感到謙卑,例如最近的研究表明,由於資料中的偏見,人工智慧診斷 COVID-19 的結果不可靠。在開發和評估用於臨床的人工智慧演算法時,我們必須牢記臨床醫生。我們必須不斷思考什麼對患者有益,以及如何獲得使用該軟體的臨床醫生的信任。人工智慧解釋自身的能力將是關鍵。
這是一篇觀點和分析文章;作者或作者表達的觀點不一定代表《大眾科學》的觀點。
