特朗普的反“觉醒”AI政策危及患者生命

(SeaPRwire) – 7月23日,唐纳德·特朗普总统签署了一项 题为“联邦政府防范‘觉醒’人工智能法案”的全面文件。这是正在进行的政治文化战争中的又一次交锋,也是一种蓄意尝试,旨在 削弱多样性、公平性、包容性 (DEI) 等术语,并逆转那些旨在解决联邦人工智能系统中系统性种族主义问题的人的工作。
但对于我们这些医学界人士,特别是那些倡导健康公平的人来说,这不仅仅是政治姿态。这项行政命令威胁着生命。它危及多年来为识别和纠正长期伤害边缘化社区,特别是美国黑人的结构性偏见所做的工作。
人工智能是 。它已被用于分流急诊室患者、优先处理后续护理以及预测疾病风险。但这些算法并非产生于中立的立场。它们是在真实世界的数据上训练的。这些数据绝非没有偏见。
保护医疗准确性
最引人注目的例子之一来自 2019年 发表在 Science 上的一项研究,由 UC Berkeley 和 University of Chicago 的研究人员撰写。他们检查了一种广泛使用的商业医疗算法,该算法旨在标记高风险护理管理患者。从表面上看,它似乎是客观和数据驱动的。但研究人员发现,该算法根本没有评估临床需求。相反,它悄悄地使用了一个替代指标:患者之前在护理上花费的金额。
由于黑人患者通常得到的护理较少,即使症状相同,这种支出替代指标导致算法严重低估了他们的需求。虽然近 46.5% 的黑人患者应被标记为需要额外护理,但算法仅识别了 17.7%。这不是一个统计学脚注。这是一个被教导视而不见的系统。
这并非孤立的案例。考虑目前仍在使用中的另外两种根据种族调整的算法:
肾功能通过肾小球滤过率 (GFR) 方程计算,长期以来一直包含针对黑人患者的“校正因子”,这基于对肌肉质量的不科学假设。研究人员反复发现,这种调整夸大了肾脏评分,意味着许多黑人患者被认为不符合移植条件或延迟获得专科护理。
而肺功能测试 (PFTs) 用于诊断哮喘和肺部疾病,通常应用基于种族的校正,假设黑人天生肺活量较低,从而降低检测阈值并导致漏诊。
这些不仅仅是历史遗迹。它们是种族主义如何嵌入代码中的例子。悄无声息地,无处不在地,且致命地。
近年来,像我这样的临床医生和研究人员一直在反击。许多医院正在从医疗方程中删除基于种族的校正。以公平为中心的人工智能工具正在开发中,以检测和减轻差异,而不是忽视它们。这项工作不是为了“觉醒”。它是为了准确,改善结果,并拯救生命。
特朗普反“觉醒”文化战的危险
特朗普的行政命令威胁要终止为使医疗算法更准确所做的重要工作。
通过禁止联邦机构在人工智能开发中考虑系统性种族主义或公平性,该命令实际上取缔了解决这些问题所需的努力。它让试图建立和培养更公平系统的数据科学家噤声。它告诉我们,指出不平等比延续不平等更糟糕。
该命令的支持者声称它促进了“中立性”。但在一个建立在不公平基础上的系统中,中立性并非正义。它是在强化它假装忽视的偏见。
危险并非假设。黑人患者已经更不可能获得 ,更有可能 ,并且更有可能因可预防的疾病而 。合乎道德设计的人工智能可以帮助更早地发现这些差异。但这只有在我们被允许以这种方式构建它时才可能实现。
人工智能中的偏见不仅伤害黑人社区。 研究 表明面部识别系统识别女性和有色人种的错误率远高于白人男性。在一个案例中,一个用于招聘的算法系统性地降低了女性简历的评分。在另一个案例中,一个医疗工具低估了女性心脏病的风险,因为历史数据最初就低估了她们的诊断。这就是不平等复制的方式。有偏见的输入在没有审查或上下文的情况下变成自动化决策。
将 DEI 从人工智能中抹去并非关乎中立。它关乎选择性记忆。它试图剥夺我们诊断问题所需的语言,更不用说解决问题了。如果我们强迫人工智能忽视历史,它就会改写历史。不仅是事实,还有这些事实所代表的人。
特朗普的行政命令将人工智能政治化并武器化。对于数百万已经被我们的法律、医疗和技术系统忽视的美国人来说,其代价将以生命来衡量。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。