一款新的人工智能工具可能会改变我们诊断遗传病的方式

(SeaPRwire) – Mayo Clinic 和一家名为 Goodfire 的旧金山研究初创公司的研究人员表示,他们使用了一个 AI 模型来预测哪些基因突变会导致疾病,并且至关重要的是,能够解释其原因,从而提供了一种大规模诊断和研究遗传性疾病的新方法。
这项研究利用了 AI 可解释性技术——这是一门致力于理解 AI 系统不透明大脑的新兴科学——来预测和理解哪些基因突变可能具有“致病性”。
梅奥诊所放射学教授兼生成式 AI 项目负责人 Matthew Callstrom 表示,某些癌症的早期诊断和治疗可能关乎生死。然而,人类基因组包含超过 30 亿个碱基对——这是一个巨大的大海捞针问题。
研究人员与 Evo 2 合作——这是一个由 Arc Institute 训练的开源“基因组基础模型”——来预测哪些 DNA 突变会导致疾病,并理解哪些生物学特征可能对此负责。Evo 2 的训练目标是预测 DNA 序列中的下一个“字母”,这与 ChatGPT 等大型语言模型 (LLM) 训练以预测文本段落中的下一个单词的方式相同。ChatGPT 通过训练互联网上的大部分文本来学习语言结构和世界知识。Nicholas Wang,该论文的作者之一,表示,Evo 2 在跨越所有生命领域的 128,000 个基因组上进行训练——每个基因组仅由构成 DNA 的四种分子(G、T、C 和 A)组成——从而学会了哪些基因序列“有利于生命”。
然而,这些知识被锁在编码模型人工智能大脑的七十亿个数字中:研究人员可以看到这些数字,但它们的含义却不透明。正如测量人脑电活动的脑电图 (EEG) 并不能告诉神经科学家患者在想什么一样,AI 研究人员可以看到 AI 大脑内部发生的事情,但难以对其进行解释。
Goodfire 的研究人员向 Evo 2 展示了致病性和良性基因突变的例子,并测量了其大脑的哪些部分会因此被激活——这使得他们能够分离出 AI 对致病突变的反应。他们发现,尽管 Evo 2 从未被明确训练过预测哪些突变会导致疾病的任务,但他们可以利用这一点来比他们测试过的所有现有计算工具更好地预测哪些突变会导致疾病。与 LLM 一样,Evo 2 的训练数据规模——大约是之前最大的基因组基础模型的十倍——使其能够推断出健康 DNA 的共同模式。
然而,在临床上,预测是不够的。“我们理解模型做出决定的原因至关重要,”梅奥诊所 AI 项目主席、该论文的合著者 Matt Redlon 说。
进一步的探测表明,Evo 2 推断出了 DNA 序列的有意义的生物学特征。例如,Evo 2 学会了识别 DNA 不同区域之间的边界,尽管它训练的基因组没有这些边界的明确标签。
这些生物学特征有助于解释为什么某些突变会导致疾病,而另一些则不会。位于两个 DNA 区域边界处的突变更有可能产生有缺陷的蛋白质,从而导致遗传性疾病。而位于在蛋白质构建前被丢弃的区域内的突变通常是无害的。
加拿大健康大学网络首席 AI 科学家 Bo Wang 表示,该论文能够识别突变的生物学特征,而不仅仅是提供一个不透明的致病性评分,这是一个“重大进展”。
随着基因组测序成本的下降——最近的系统声称可以以 100 美元的价格对整个基因组进行测序——像这种解释遗传数据的方法,可以帮助科学家们“回归生物学”,并为个体创造“个性化疗法”,Redlon 说。
然而,在 Goodfire 的方法准备好投入临床之前,还需要进行更大规模的试验,以了解其在更广泛人群中的表现,然后才能通过 FDA 的批准。此外,斯坦福大学生物医学数据科学教授 James Zou 表示,尽管研究人员在 Evo 2 中发现了储存的生物学概念,但“不能保证”模型实际上是利用这些概念来确定哪些突变是致病的。
随着 AI 在生命科学及其他领域的应用,可解释性越来越受到关注。Goodfire 公司成立于 2023 年,旨在推进 AI 模型的可解释性——其联合创始人兼首席技术官 Dan Balsam 称之为“世界上最重要的问题”——该公司在 2 月份的估值为 12.5 亿美元。1 月份,Goodfire 发表了一项研究,该研究在 AI 模型的大脑中发现了储存的阿尔茨海默病的新型生物标志物,这预示着可能在 AI 模型的大脑中发现人类科学家尚未发现的新概念。
Zou 说:“在我看来,[可解释性] 最有趣的部分是能够打开黑箱,看看‘模型是否真的学到了我们尚未了解的科学知识?’” Zou 补充说,Goodfire 最近发表的研究并没有做到这一点,因为它只是探究 Evo 2 是否具有已知概念。
可解释性也已应用于大型语言模型,如 ChatGPT 和 Claude。最近,Anthropic 的研究人员发现,Claude Mythos,该公司旗舰 AI 模型最新一代产品,表现出内部对正在接受测试的意识迹象,并在测试中作弊——尽管从未明确表示它意识到自己正在接受测试。AI 模型可能在安全相关的测试中作弊的可能性,增加了允许研究人员扫描 AI 大脑以发现不当行为迹象的技术的重要性。
Balsam 说:“如果存在像‘可解释性是否有用?’这样的障碍,我认为我们一直在攻克它,而且我认为我们已经突破了它。”
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。