修復在種族或性別上存在偏見的醫療裝置

設計者應展示儀器在不同人群中的效能表現

People walking above and hanging below ECG line.

Fatinha Ramos

編者按 (12/21/21): 本文正在一個 關於醫療保健公平的特別合集 中展出,該合集由 Takeda Pharmaceuticals 的支援成為可能。本文為獨立出版,未接受贊助。

我們通常不認為日常裝置會對種族或性別有偏見,但它們可能存在偏見。電氣工程師和計算機科學家 Achuta Kadambi 對這個問題既有專業的認識,也有個人的體會。“就我個人而言,我的膚色相當深,”卡丹比說,他有時無法啟動非接觸式皂液器和探測皮膚反射光的水龍頭。他回憶說,在某個機場,“我不得不請一位膚色較淺的旅客幫我觸發水龍頭。”

醫療裝置也可能存在偏見——這個問題在新冠疫情期間受到了更多關注,以及許多其他影響健康的不公平現象。在最近發表於 Science 的一篇文章中,加州大學洛杉磯分校塞繆理工程學院的助理教授卡丹比描述了種族和性別偏見可能滲透到醫療裝置的三個方面,並提出了一些解決方案。他認為,公平性應與有效性一樣,成為評估新技術的標準。

卡丹比說,第一個問題是物理偏見,它內在存在於裝置的機械結構中。其次是計算偏見,它存在於軟體或用於開發該裝置的資料集中。最後是解讀偏見,它並非存在於機器中,而是存在於使用者身上。當臨床醫生對醫療裝置和測試的讀數應用不平等的、基於種族的標準時,就會發生解讀偏見——一種令人震驚的常見做法。“偏見是多維度的,”卡丹比說。“通過了解它的根源,我們可以更好地糾正它。”

物理偏見在去年十二月成為新聞,當時一項 密歇根大學的研究 發現脈搏血氧儀——它使用穿過皮膚和組織的透射光來測量人體血液中的氧氣——在黑人患者中漏診低血氧水平的可能性是白人患者的三倍。其他儀器在膚色方面也可能遇到問題。遠端體積描記術是一種新技術,透過分析即時或錄製的影片來測量心率,當程式設定為捕捉皮膚上類似臉紅的變化時,對有色人種的效果較差。但是,卡丹比說,“有多種提取訊號的方法,偏見程度各不相同。” 例如,麻省理工學院的一個團隊建立了一種遠端體積描記儀,讀取頭部運動的微小變化,這些變化發生在心臟跳動時。卡丹比的實驗室正在嘗試其他解決方案,包括使用熱波長而非可見光分析影片影像。

當醫療技術主要在一組同質的受試者(通常是白人男性)身上進行測試時,計算偏見可能會悄然進入。例如,根據 2020 年阿根廷科學家團隊的一項分析,當在很大程度上以男性掃描為訓練資料時,一個用於分析胸部 X 光片並識別 14 種不同肺部和胸部疾病的人工智慧系統對女性的效果較差。但是,用性別平衡的樣本訓練系統產生了最佳的總體結果,並且對男性的準確性沒有顯著損失。卡丹比懷疑,其中一個原因可能與一個名為域隨機化的概念有關——向訓練資料新增更多種類往往會提高效能。

阻止計算偏見意味著要付出更大的努力,招募來自不同人群的人參與醫療裝置的設計和測試。明尼蘇達大學研究生殖健康和種族公平的公共衛生科學家蕾切爾·哈德曼觀察到,如果研究團隊本身更加多元化,這將有所幫助。“當您對[醫療實驗]有不信任的歷史,加上您沒有看到任何看起來像您的人實際在做這項工作時,這又是一個訊號,表明這不適合您,”她說。

除了在研究人員中建立多樣性之外,哈德曼還贊成對醫務人員進行關於種族主義影響健康的基本方式的強制性培訓,這一步驟也可能有助於對抗導致解讀偏見的做法。她指出,加利福尼亞州已朝著這個方向邁進,2020 年的一項法律要求治療孕婦及其新生兒的醫療保健提供者完成 一項課程(哈德曼正在設計其中一項),旨在縮小孕產婦和嬰兒死亡率方面的種族差距。

為了讓工程師們掌握整體資訊,卡丹比提出了另一項要求:在關於任何新醫療裝置的已發表工作中包含“公平性宣告”,說明該裝置在不同人群中的效能表現如何。期刊和工程會議可以像要求提供利益衝突宣告一樣,要求提供這些資訊。“如果我們新增一個激勵公平性的指標,誰知道會湧現出什麼新想法呢?”卡丹比建議。“我們可能會發明解決工程問題的完全不同的方法。”

Claudia Wallis 是一位屢獲殊榮的科學記者,其作品曾發表在紐約時報、時代週刊、財富新共和上。她曾擔任時代週刊的科學編輯和大眾科學-思想的執行編輯。

更多作者:Claudia Wallis
大眾科學 Magazine Vol 324 Issue 6本文最初以“偏見的工具”為標題發表於 大眾科學 Magazine Vol. 324 No. 6 (), p. 25
doi:10.1038/scientificamerican0621-25
© .