幾年前,我參加了一個國際醫療保健會議,熱切期待著主題演講嘉賓關於一項針對美國低收入社會經濟群體糖尿病干預措施的演講。他指出,人工智慧工具如何使研究人員和醫生能夠使用模式識別來更好地為糖尿病患者規劃治療方案。
演講者描述了這項研究、其背後的想法、方法和結果。他還描述了參與該專案的典型人員:一位 55 歲的黑人女性,其閱讀水平相當於 7 至 8 年級,體重指數表明肥胖。演講者說,這位女性很少堅持她正常的糖尿病治療計劃。這讓我感到困擾:一個人是否堅持治療被簡化為二元的“是”或“否”。這並沒有考慮到她的生活經驗——她日常生活中導致她健康問題以及無法堅持治療的事情。
該演算法依賴於藥物、實驗室測試和診斷程式碼等資料,並且基於這項研究,醫生將為中老年、低收入黑人女性提供醫療保健和設計治療計劃,而沒有考慮這些計劃的可行性。這種做法無疑會加劇健康差距和健康不公平現象。
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞事業 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續產出關於塑造我們當今世界的發現和想法的、具有影響力的報道。
當我們繼續在醫療保健領域構建和使用人工智慧時,如果我們想要在獲取、交付和結果方面實現真正的公平,我們需要在整個醫療保健過程和生態系統中採取更全面的方法。人工智慧開發人員必須來自不同的背景才能實現這一目標,並且他們需要使用“小資料”來訓練他們的系統——關於人類經驗、選擇、知識以及更廣泛的健康社會決定因素的資訊。透過這樣做,我們將避免的臨床錯誤將節省資金、減少汙名並改善生活。
在我看來,醫療保健領域人工智慧的一個根本缺陷在於它過度依賴大資料,例如醫療記錄、影像和生物標誌物值,而忽略了小資料。然而,這些小資料對於理解人們是否可以獲得醫療保健、醫療保健的交付方式以及人們是否可以堅持治療計劃至關重要。這是將人工智慧引入醫學各個方面的努力中缺失的組成部分,沒有它,人工智慧不僅會繼續存在偏見,還會助長偏見。
醫療保健領域人工智慧開發的整體方法可以在任何階段發生;生活經驗資料可以為早期階段提供資訊,例如問題定義、資料採集、整理和準備階段,中間工作(如模型開發和訓練)以及最終的結果解釋步驟。
例如,如果基於名為 R 平臺的 AI 糖尿病模型接受過小資料訓練,它就會知道一些參與者需要乘坐公共汽車或火車一個多小時才能到達醫療中心,而另一些人則工作繁忙,很難在工作時間去看醫生。該模型可以考慮到食物沙漠,食物沙漠限制了人們獲得營養食品和體育鍛煉機會,因為食物不足在糖尿病患者中更為常見(16%),而在非糖尿病患者中為 9%。
這些因素是社會經濟地位的一部分;這不僅僅是收入,還包括社會階層、教育程度以及我們社會中人們所享有的機會和特權。更好的方法是包括捕捉或考慮健康社會決定因素以及健康公平的資料。這些資料點可以包括經濟穩定性、社群或環境屬性、社會和社群環境、教育機會和質量以及醫療保健的可及性和質量。
所有這些都可以讓提供者和醫療系統更細緻地瞭解為什麼研究中的任何一位女性可能無法堅持包含多次就診、每天服用多種藥物、體育鍛煉或社群支援小組的治療方案。治療方案可以包括長效藥物、不需要旅行的干預措施等等。
相反,在那次談話中,我們得到的結論是,研究中典型的黑人女性並不關心自己的病情及其慢性健康影響。這種研究結果通常被狹隘地解讀,並且缺乏“完整”的生活經歷和條件。因此,臨床建議排除了“典型”患者的健康社會決定因素,並且在不瞭解“如何”的情況下給出、報告和記錄,例如黑人女性患者如何生活、工作、旅行、禮拜和衰老。這是極其有害的醫學。
預測建模、生成式人工智慧和許多其他技術進步正在公共衛生和生命科學建模領域飛速發展,但小資料並未納入專案生命週期。在 COVID-19 和疫情準備方面,與膚色較淺的人相比,膚色較深的人不太可能獲得補充氧氣和救生治療,因為脈搏血氧儀演算法的快速發展沒有考慮到膚色較深會導致血氧儀高估患者的血氧飽和度,並低估 COVID-19 病例的嚴重程度。
人機結合要求我們所有人反思,而不是急於做出判斷或得出結果,並提出關鍵的問題,這些問題可以為公平的健康決策提供資訊,例如關於醫療保健資源分配、資源利用和疾病管理。演算法預測已被發現導致疼痛方面的健康差距比標準差高出 4.7 倍,並且已被證明會導致心臟病學、放射學和腎臟病學等領域的種族偏見,這僅僅是幾個例子。模型結果不是資料工作的終點,而應嵌入到演算法生命週期中。
對生活經驗資料的需求也是人才問題:誰在進行資料收集和演算法開發?2018 年,只有5% 的在職醫生認為自己是黑人,約 6% 認為自己是西班牙裔或拉丁裔。與患者外貌相似並且對他們執業的社群有所瞭解的醫生,更有可能詢問那些成為小資料的事項。
構建人工智慧平臺的人員也是如此;在同一群體以及美洲印第安人或阿拉斯加原住民中,科學和工程教育水平有所下降。我們必須將更多來自不同群體的人員引入人工智慧的開發、使用和結果解釋中。
如何解決這個問題是多層面的。在就業方面,有色人種在資料工作中可能隱形但存在,缺席或不被傾聽;我在我的書《利用交叉性:看見與看不見》中談到了這一點。組織必須對其使用或建立的系統負責;他們必須培養包容性的人才和領導力。他們必須在有意識地招聘和留住有色人種,並理解有色人種的組織經驗。
人工智慧中的小資料正規化可以用來解讀生活經驗。否則,偏見會被編碼到不代表真相的資料集中,這種編碼會嵌入對人類背景的抹殺和告知我們解釋的計數——最終會放大“典型”患者生活中的偏見。資料問題指向人才問題,無論是在臨床層面還是技術層面。此類系統的開發不能是二元的,就像糖尿病研究中的人工智慧一樣。“典型”患者被視為依從或不依從也不能被接受為真相的最終版本;必須考慮護理方面的不公平現象。
這是一篇觀點和分析文章,作者或作者表達的觀點不一定代表《大眾科學》的觀點。
