研究揭示了为什么分析医学图像的人工智能模型可能会产生偏见

导读 人工智能模型通常在医疗诊断中发挥作用,尤其是在分析 X 光片等图像时。然而,研究发现,这些模型并不总是在所有人口群体中都表现良好,...

人工智能模型通常在医疗诊断中发挥作用,尤其是在分析 X 光片等图像时。然而,研究发现,这些模型并不总是在所有人口群体中都表现良好,通常在女性和有色人种中表现更差。

这些模型还显示出一些令人惊讶的能力。2022 年,麻省理工学院的研究人员报告称,人工智能模型可以根据患者的胸部 X 光片准确预测其种族,这是最熟练的放射科医生无法做到的。

该研究小组现在发现,在人口统计学预测方面最准确的模型也显示出最大的“公平差距”——即在准确诊断不同种族或性别的人的图像方面存在差异。研究人员表示,研究结果表明,这些模型在进行诊断评估时可能使用了“人口统计学捷径”,导致对女性、黑人和其他群体的预测结果不正确。

“众所周知,高容量机器学习模型可以很好地预测人类人口统计数据,例如自我报告的种族、性别或年龄。这篇论文重新证明了这种能力,然后将这种能力与不同群体的表现不佳联系起来,这是前所未有的,”麻省理工学院电气工程和计算机科学副教授、麻省理工学院医学工程与科学研究所成员、这项研究的资深作者 Marzyeh Ghassemi 说。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。