醫療保健人工智慧系統存在偏見

我們需要更多樣化的資料,以避免在醫學領域延續不平等現象

得益於人工智慧 (AI) 和機器學習的進步,計算機系統現在可以像皮膚科醫生一樣診斷皮膚癌,像放射科醫生一樣在 CT 掃描中挑出中風,甚至像腸胃病學家一樣在結腸鏡檢查中檢測出潛在的癌症。這些新的專家數字診斷學家有望讓我們的護理人員走上更大、更好、更快、更便宜的技術發展曲線。但是,如果它們也使醫學更具偏見怎麼辦?

在這個國家正在努力解決核心社會機構中系統性偏見問題的時刻,我們需要技術來減少而不是加劇健康差距。我們早就知道,用不能代表整個人口的資料訓練的人工智慧演算法,對於代表性不足的群體來說,通常表現更差。例如,用性別失衡的資料訓練的演算法在讀取代表性不足性別的胸部 X 光片時表現更差,研究人員已經擔心,許多主要在淺膚色個體上訓練的皮膚癌檢測演算法,在檢測影響深色皮膚的皮膚癌時表現更差。

考慮到不正確決定的後果,高風險的醫療人工智慧演算法需要用來自不同人群的資料集進行訓練。然而,這種多樣化的訓練並沒有發生。在最近的一項研究發表在JAMA (美國醫學會雜誌) 上,我們回顧了 70 多篇出版物,這些出版物比較了醫生與數字替身在臨床醫學多個領域的診斷能力。用於訓練這些人工智慧演算法的大部分資料僅來自三個州:加利福尼亞州、紐約州和馬薩諸塞州。


關於支援科學新聞

如果您喜歡這篇文章,請考慮支援我們屢獲殊榮的新聞報道,方式是 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。


無論是種族、性別還是地域,醫療人工智慧都存在資料多樣性問題:研究人員無法輕易獲得大型、多樣化的醫療資料集——這可能導致演算法出現偏差。

為什麼沒有更好的資料可用?我們的一位病人,一位退伍軍人,在試圖獲取他之前的醫療記錄後,沮喪地說道:“醫生,為什麼我們可以在世界的另一端看到移動車隊中的特定汽車,卻看不到我在街對面醫院的 CT 掃描?”在醫學領域共享資料對於單個患者來說已經夠難了,更不用說可靠地訓練機器學習演算法所需的成百上千個病例了。無論是在治療患者還是構建人工智慧工具方面,醫學資料都鎖定在各處的小型資訊孤島中。

醫療資料共享應該更加普遍。但是,醫療資料的神聖性和相關隱私法的力度為保護資料提供了強大的激勵,並且對資料共享中的任何錯誤都有嚴重的後果。資料有時會因經濟原因而被隔離;一項研究發現,共享資料的醫院更有可能失去患者給當地競爭對手。即使存在共享資料的意願,醫療記錄系統之間的缺乏互操作性仍然是一個巨大的技術障礙。過去二十年來,大型科技公司對個人資料的使用引起的強烈反對也給醫療資料共享蒙上了一層陰影。公眾已經對任何聚合個人資料的嘗試深感懷疑,即使是為了崇高的目的。

這並非醫療資料首次缺乏多樣性。自臨床試驗的早期以來,婦女和少數族裔群體在研究參與者中的代表性一直不足;越來越多的證據表明,這些群體從已批准的藥物中獲得的益處較少,副作用更多。解決這種失衡最終需要美國國立衛生研究院 (NIH)、食品藥品監督管理局 (FDA)、研究人員和行業的共同努力,以及 1993 年國會的一項法案;直到今天,這仍然是一項正在進行的工作。一家競相開發新冠疫苗的公司最近宣佈推遲招募更多樣化的參與者;這非常重要。

不僅僅是醫學;人工智慧已經開始在其他高風險領域扮演訓練有素的專家的角色。人工智慧工具幫助法官做出量刑決定,重新定向執法重點,並向銀行職員建議是否批准貸款申請。在演算法成為可能提升或破壞普通公民生活的高風險決策不可或缺的一部分之前,我們必須理解和減輕嵌入的偏見。

人工智慧中的偏見是一個複雜的問題;僅僅提供多樣化的訓練資料並不能保證消除偏見。人們還提出了其他一些擔憂——例如,人工智慧工具的開發人員和資助者缺乏多樣性;從多數群體的角度構建問題;關於資料的隱含偏見假設;以及使用人工智慧工具的輸出來延續偏見,無論是無意還是有意的。由於獲得高質量資料具有挑戰性,研究人員正在構建試圖以更少資料做更多事情的演算法。從這些創新中可能會出現減少人工智慧對龐大資料集需求的新方法。但就目前而言,確保用於訓練演算法的資料的多樣性對於我們理解和減輕人工智慧的偏見至關重要。

為了確保未來的演算法不僅強大而且公平,我們必須構建技術、監管、經濟和隱私基礎設施,以提供訓練這些演算法所需的大型且多樣化的資料。我們不能再盲目地前進,用任何碰巧可用的資料構建和部署工具,被數字光澤和進步的承諾所迷惑,然後感嘆“無法預見的後果”。後果是可以預見的。但它們並非不可避免。

© .