哈里·斯里尼瓦桑:近日,《科学》杂志上发表了一则研究,该研究发现,美国各地有很多医院会使用某种算法来决定哪些病人需要后续的照料、哪些病人不需要后续的照料
。但这个算法存在巨大的种族偏见 。近日,梅根·汤普森跟STAT的史拉达·柴可拉达聊了聊,史拉达解释了研究人员的发现成果 。梅根·汤普森:为什么会有这种偏见呢?
史拉达·柴可拉达:有2种方法可以判断一个人生病的严重程度
。第一种:这个人治病花了多少钱 。大家都知道,一般都会这样看待:获得的医疗照顾越多,获得的治疗就越多 。在获得了所有治疗的情况下,他们花费的钱越多,他们病的就越重 。第二种:大家都知道,我们可以通过实验测试评估实际的生物物理学情况,了解人可能出现的问题或者疾病 。所以,似乎这个算法是取决于成本预测的定义 。换言之,一位病人预计花在保险公司或者医院的钱越多,他们病得就越重 。而偏见似乎也是从这里生发出来的 。梅根·汤普森:我理解,研究人员用这个算法来搭配不同类型的数据
。您能稍微介绍一下吗?他们用的是什么?史拉达·柴可拉达:没问题
。是这样的,他们没有只依据成本来预测哪些病人需要后续的照顾,他们用的是生物统计的数据、生物物理学的数据、生理数据,然后他们在之前的模型上发现了巨大的不同 。这个算法错失了近4.8万额外的慢性病,这种慢性病的患者是非裔美籍病人 。但他们调试了算法来观测实际的生物数据时,他们将这个数字降到了7700 。所以,偏见程度下降了大概84% 。梅根·汤普森:我们是否知道这个偏见算法是否会影响病人获得的照顾呢?
史拉达·柴可拉达:这个不知道
。不过,就像我之前提到的那样,这个算法是一些医院用来帮助自己确定未来一年中哪些病人可能需要额外照料的 。这种照料包括在家的照料、确保病人可以定期跟医生预约 。所以,咱们只能这样想:如果黑人病人、病得更重的黑人病人没有获得准确的定位,那么他们也无法获得后续的照顾 。梅根·汤普森:Optum公司是否会有什么负面影响呢?毕竟这个算法是他们做的
。史拉达·柴可拉达:会的
。该研究发布一天后,纽约的一些监管人员,比如纽约州金融服务署和卫生部的监管人员,他们给该公司发了一封信 。他们说,他们在调查这个算法,他们还说,该公司必须要证明这个算法的运作方式并没有违背纽约的反歧视法 。所以,这个调查还未进行 。一件令人鼓舞的事情是:研究人员做研究的时候,实际上,他们找过这家公司,也让他们知道了数据的不一致性 。该公司听闻后表示很开心 。我听说,他们正在修复这个问题 。另一件令人鼓舞的事情是:这些研究人员发起了一项活动,帮助其他可能落后的公司在自己的项目里修复这些偏见问题 。所以,他们推出了一个项目,该项目是在芝加哥大学布斯商学院外进行的,而且是无偿的 。所以他们可以在其他算法中发现这些可能在全国各地使用的内容 。梅根·汤普森:好的,让我们感谢史拉达的讲解
。史拉达·柴可拉达:谢谢大家
。译文为可可英语翻译,未经授权请勿转载!