国内健康环球医讯家医百科药品库医药资讯

人工智能将如何改变我们的医疗保健?

How Artificial Intelligence is Changing Healthcare

美国英语科技与健康
新闻源:San Diego Magazine
2024-10-01 06:00:00阅读时长8分钟3939字
人工智能医疗保健败血症电子健康记录深度学习模型患者隐私人类工作岗位诊断工具预测疾病基因数据数据隐私算法偏见医疗错误远程医疗医疗服务提供方式

内容摘要

本文探讨了人工智能在医疗保健领域的应用及其潜在影响,包括其优势和面临的挑战。

2018年,加布里埃尔·瓦尔迪博士看到了解决医疗保健中一个长期问题的潜在解决方案:败血症。作为加州大学圣地亚哥分校健康系统的医院败血症医学主任,瓦尔迪表示,败血症——一种过度活跃的免疫系统对感染的反应——每年在全球范围内导致约1000万人死亡,其中包括35万名美国人。

败血症的问题在于,它有多种表现方式,这使得诊断变得困难。多年来,瓦尔迪一直在尝试看电子健康记录是否可以触发警报,当某人处于风险时提醒医生和护士。不幸的是,这些早期警报几乎总是错误的,你可以想象,在繁忙的医院中,你的第一反应是“把这个东西拿开”,因为它总是出错,改变了工作流程,没有人喜欢它。

但当人工智能进入这一领域时,瓦尔迪开始思考,AI模型是否能更准确地预测谁会患上败血症。“我们专注于从急诊科实时提取数据,查看大约150个变量,并生成每小时一次的预测,预测谁将在接下来的四到六小时内发展成败血症。”瓦尔迪说,并补充道,由此产生的深度学习模型每年帮助加州大学圣地亚哥分校健康系统挽救了约50条生命。

在整个圣地亚哥县,人工智能正在重塑医疗保健。它转录音频,总结患者笔记,帮助制药公司解码基因数据,撰写回应患者问题的草稿,与轻度认知障碍的人聊天,甚至通过手机拍摄的照片识别母乳喂养相关的情况。

所有这些改进都将带来持久的变化,大幅改善医学,加州大学圣地亚哥分校健康系统的首席医疗官克里斯托弗·隆赫斯特博士说。“我认为未来两三年的前景有些被夸大了,但在未来的七到九年里,它将彻底改变医疗服务提供方式。”隆赫斯特补充道,“这将是自抗生素以来最大的事情,因为它将提升每一位医生成为最好的医生,并以前所未有的方式赋予患者权力。”

这些听起来像是崇高的理想,但这个方程的资金部分似乎预示着人工智能在医疗保健领域的光明未来。投资者注意到了这项技术的潜力。根据Rock Health最近的一份报告,今年投资于美国数字健康初创公司的近60亿美元中,有三分之一流向了使用人工智能的公司。

然而,所有这些创新都伴随着重大问题:患者知道何时使用人工智能吗?患者的隐私数据是否得到保护?人类的工作岗位会被取代吗?有人真的愿意与机器人讨论他们的健康状况吗?有些人担心,这项技术的发展速度如此之快,以至于这些问题可能得不到解决。“我只是希望我们在技术真正达到所需水平之前不要过于兴奋。”圣迭戈大学生物医学伦理学主任吉莉安·图利斯说,“我想到的是《侏罗纪公园》,仅仅因为我们能做到并不意味着我们应该去做。”

人工智能作为诊断工具的前景和陷阱

即使提供者本身也不总是热衷于使用像瓦尔迪的败血症模型这样的AI程序。“医生和护士通常是非常聪明的人,他们中的许多人不会对某种形式的人工智能建议某人可能正在发展败血症感到兴奋。”瓦尔迪说,“医生的资历越高,他们就越不可能认为该模型有价值。这可能是代际差异……年轻人对AI更感兴趣。”

瓦尔迪将对AI的怀疑比作19世纪医生对听诊器的抵制。“医生们认为它毫无价值,会毁掉这个职业。”他说,“现在,它已成为医学的象征。”像败血症模型这样的方法可以扩展到预测其他疾病的风险,如心血管疾病、阿尔茨海默病和癌症,斯克里普斯研究转化研究所的创始人兼主任埃里克·托波尔博士说。

“因此,我们收集一个人的所有数据——这包括他们的电子健康记录、实验室测试、扫描、基因组、肠道微生物组、传感器数据、环境数据和社会决定因素数据。”他解释说,“我们可以将所有这些数据整合在一起,非常精确地说这个人患某种特定疾病的风险很高。”

据托波尔介绍,斯克里普斯的研究人员甚至在使用视网膜图像来预测阿尔茨海默病和帕金森病,比任何症状出现前数年。“机器眼睛或数字眼睛可以看到人类永远无法看到的东西。”托波尔补充道。

与此同时,在圣地亚哥生物技术公司Illumina,研究人员正在使用算法分析基因信息,寻找导致疾病的突变。但创建这种智能比构建像ChatGPT这样的程序更具挑战性,后者是在互联网数据上进行训练的。Illumina人工智能实验室副总裁凯尔·法尔博士转向灵长类动物,对其DNA进行测序,并使用这些数据训练公司的模型PrimateAI-3D。他希望有一天能用该模型诊断罕见的遗传疾病。

圣迭戈大学的图利斯表示,她支持预测和预防疾病,但她担心人工智能的其他用途。“当我读到医生与保险公司争执患者是否应该接受某些手术或治疗的故事时,但保险公司使用算法来做出决定……我感到非常紧张。”她说。诊断通常需要人类的触感,她补充道。“你可以观察人的指甲床;你可以以特定的方式观察肿块或皮疹;你可以感受人的皮肤是否潮湿和冰冷。”她说,“算法做不到这一点。”

节省时间同时保护患者数据

任何使用过AI模型起草电子邮件或撰写求职信的人都知道它可以节省大量时间。圣地亚哥的医生和护士已经在利用AI处理一些更繁琐的任务。包括斯克里普斯健康在内的几家卫生系统使用AI生成检查后的笔记,回答患者问题,总结临床预约。斯克里普斯首席信息官肖恩·蒂尔曼表示:“这可以将记录时间减少到7到10秒。”“这使某些医生能够在给定的班次或一天内看到更多的患者。”

加州大学圣地亚哥分校也使用类似的系统。隆赫斯特表示,这使医生在就诊期间能够关注患者而不是电脑屏幕。“这实际上是关于重新人性化检查室体验。”他说。由于他们不必做笔记,医生可以在技术转录对话的同时与患者进行眼神交流。

但这种方法引发了关于同意和数据隐私的担忧。圣迭戈大学研究通信技术的助理教授裴素雅(Jeeyun Sophia Baik)最近研究了联邦HIPAA法律中健康数据可能落入的漏洞。她说,HIPAA目前不保护由健身应用程序或Apple Watch等设备收集的健康数据。“这一立法缺口也可能适用于医学和医疗保健领域任何新兴的AI使用案例。”Baik补充道。

例如,如果医生希望将受保护的健康数据用于直接向患者提供医疗服务之外的任何目的,他们应该获得患者的授权。但Baik表示,如果医疗服务提供者开始使用这些信息来训练人工智能,是否适用这一点是有争议的。“在某些情况下,AI的使用是否符合患者最初同意的医疗服务提供的原始目的,可能存在争议。”Baik说。“因此,确实存在一些灰色地带,需要政府进一步澄清和制定法规或指南。”

最近的一项加州州法案SB 1120试图澄清这些灰色地带,要求使用人工智能的健康保险公司确保该工具符合规定的安全和公平标准。斯克里普斯健康公司的蒂尔曼表示,患者必须始终在AI工具记录就诊情况之前给予同意。如果患者拒绝,提供者将不会使用该技术。但他补充说:“很少有患者不同意。”

此外,他继续说道,人类始终会审查自动化的AI生成消息,回答患者问题。但斯克里普斯不会告诉患者他们在使用AI,“因为我们会让适当的护理团队成员进行正式审查并在发布笔记前签字。”他说。UCSD的情况也是如此。“没有一个按钮可以直接发送[消息给患者]。”隆赫斯特解释道。“如果你要使用AI生成的草稿,你必须编辑草稿。这是遵守我们问责制原则的做法。”Sharp HealthCare的首席数据、AI和发展官乔恩·麦克马努斯表示,他意识到需要内部AI模型,以确保员工和提供者不会意外地将患者数据输入到安全性较低的算法中,如ChatGPT。“我们能够阻止大多数商业AI网站访问Sharp网络。”他解释道。相反,他的团队创建了一个名为SharpAI的程序。它用于任务,如总结会议纪要、创建培训课程和起草营养计划。

修正错误并可能制造错误

借助人工智能技术,远程医疗服务可能会变得更加先进。加州大学圣地亚哥分校电气和计算机工程研究生杰西卡·德苏扎目前正在开发一个系统,允许经历母乳喂养问题的父母向哺乳顾问发送乳房照片,顾问可以使用AI诊断问题。德苏扎创建了一个乳腺疾病的数据集,并训练AI识别可能表明问题的模式,如乳头创伤。

与此同时,加州大学圣地亚哥分校的计算机科学教授劳拉·里克设计了一种小型桌面机器人,称为“认知辅助机器人用于动机和神经康复”(CARMEN,名称灵感来自Carmen San Diego)。CARMEN帮助轻度认知障碍患者改善记忆力和注意力,并学习在家更好地自理的技能。

“许多[患者]无法获得护理。”她说,“CARMEN的想法是将诊所的实践转移到家中。”这些用途提供了另一种对医疗保健中AI的愿景:通过帮助医生评估病情和发现错误来改善患者护理。“其中一个大问题是消除医疗错误,这是普遍存在的。”托波尔说。“每年在美国,有1200万诊断医疗错误。”据托波尔介绍,这些错误每年导致约80万美国人严重残疾或死亡。

他认为,AI可以帮助大幅减少这一数字。例如,医生正在使用AI审查心电图,检查是否有漏检的地方。但托波尔警告说,不能完全依赖AI。“在涉及患者的情况下,你不希望AI促进错误。”他说。“这是我们试图消除的东西。这就是为什么人类监督如此重要。你不会让AI独自行动。你只是将其与护士、医生或临床医生的监督结合起来。”

无论人工智能程序变得多么先进,他都不认为AI会在没有人类参与的情况下处理诊断。“你不想搞砸这件事。”他说。“患者应该要求这样做。”

算法偏见

对AI的另一个期望是,它可以通过消除医学中的隐性种族主义来纠正偏见,因为理论上机器看不到肤色。但算法所基于的数据本质上是不完美的。“现有的信息中可能已经存在医疗偏见。”图利斯说。“如果你从这些信息中提取数据,那么偏见仍然存在。我认为这是一个正在进行的工作。”

例如,一个旨在检测乳腺癌风险的AI工具将基于先前收集的人口数据进行训练。“但他们没有足够多的黑人女性被纳入这些数据。”图利斯解释道。“那么这对用于决策的数据质量意味着什么?”

但朗赫斯特表示,每个数据集中都有偏见。关键是选择适合你所服务人群的正确数据,以帮助解决不平等现象。他回溯到败血症模型。他说,该算法在UCSD的希尔克雷斯特医院的表现远优于拉霍亚医院。“为什么?因为我们调整了算法,以识别那些直到后来才被医生发现的败血症病例。”他补充道。“我们在不同的急诊科服务不同的患者群体。”

希尔克雷斯特医院的患者往往更年轻,这使得早期诊断败血症更加困难。但AI算法帮助缩小了这一差距。“这些工具将在未来10年内比过去50年更多地改变医疗服务提供方式。”朗赫斯特说。但他希望行业不要操之过急——毕竟,他建议,如果FDA批准了一种新的乳腺癌药物,并简单地说“副作用很少”,你会怎么想?

“你会说,‘那很好,但它怎么起作用?’他们会说,‘嗯,我们不知道。我们没有数据。’”他继续说道。“现在的情况就是这样。就像西部拓荒一样。我们的论点是我们真的需要针对对患者真正重要的实际结果进行本地测试。就是这样。”


(全文结束)

声明:本文仅代表作者观点,不代表本站立场。

本页内容撰写过程部分涉及AI生成(包括素材的搜集与翻译),请注意甄别。

7日热榜