如今或在不久的将来,您去看医生时房间里可能会有另一个“听众”:环境人工智能。
坦帕综合医院的尼希特·帕特尔(Nishit Patel)博士称,该医院的医生们正在使用环境人工智能实时转录和整理患者病历,这样他们就不用在下次看诊时疯狂地打字做记录,也不用在凌晨更新病历图表。
帕特尔博士同时也是一名执业医师,每周会接诊几天病人。他表示:“作为医疗服务提供者,我们每与患者相处一小时,就需要花两小时在键盘上记录所有信息。”在坦帕综合医院的工作中,帕特尔专注于技术基础设施和人工智能策略。
环境人工智能是一种实时记录和自动转录对话的技术,就像一个书记员。它能让像帕特尔这样的医生“离开时得到的不是一份简单的转录稿,而是一份经过深思熟虑、结构清晰的笔记框架,然后我可以在此基础上进行调整和编辑。”
坦帕综合医院系统内约有 300 名医生和医疗服务提供者试用了这项技术,帕特尔称他们发现“其中一部分医生和提供者采用了它。”他还表示,超过 15000 次患者就诊是“使用这种环境人工智能技术来完善病历记录的”。
“如果我们能深思熟虑地降低风险,从医疗服务的角度来看,这将是最重要、最具变革性的时刻之一。”
医生需要承认患者对人工智能的恐惧
乔治城大学的家庭医生拉塔莎·塞利比·珀金斯(LaTasha Seliby Perkins)博士最近开始接受使用人工智能辅助记录病历的培训,并计划在记录预约前征求患者的同意。
塞利比·珀金斯说:“我照顾的主要是婴儿潮一代和医疗服务不足的人群,所以我的患者中 90%是医疗补助和医疗保险的患者。医疗系统存在一些不信任,对于很多黑人和棕色人种的患者来说尤其如此,对吧?所以当引入新事物时,你必须要考虑到这一点。”
帕特尔指出,坦帕综合医院的医生在使用环境人工智能时也遵循了这一做法。
塞利比·珀金斯做好了准备,患者要么拒绝在就诊时使用环境人工智能,要么对其工作原理有很多疑问。
对于如何回应患者的担忧,她建议:“对患者坦诚地谈论人工智能,承认自己的恐惧,也承认患者的恐惧,并愿意回答他们提出的任何问题。”
尽管医疗保健领域引入了新的人工智能技术,塞利比·珀金斯仍坚决维护医患关系。她说:“在初级保健环境中,医疗服务的连续性和关系的建立很重要。所以任何可能以任何方式削弱这一点的事情,我都会再三考虑是否去做。”
帕特尔告诉 Make It,对患者在医疗保健领域对人工智能看法的调查显示,“他们害怕人工智能。他们认为人工智能会让医生失去作用,算法会决定他们的命运。但我认为这绝非事实。”
在坦帕综合医院实施环境人工智能之前,医院成立了一个由医生、伦理学家以及合规、风险、隐私和安全方面的专家组成的人工智能治理小组。
帕特尔说:“我们要确保我们部署的任何直接或间接用于提高运营效率的东西,只要是与患者相关的,我们都要全面考虑,不仅要看到机会,还要考虑可能存在的风险、可能引入或加剧的任何偏见。”
“它确实存在一些幻觉”
有些医生,比如南加州获得委员会认证的妇产科医生纳撒尼尔·德尼科拉(Nathaniel DeNicola)博士,还没有在他们的实践中纳入环境人工智能。德尼科拉拥有自己的私人诊所,同时他在 2016 年成为了美国妇产科学院远程医疗工作的主席。
德尼科拉说:“我们不使用(人工智能)来创建患者病历。我们所有的病历都是由我们的临床医生或医疗助理从头到尾完成的。”他的诊所之前使用过书记员,但都是人类。
德尼科拉说:“在考察公司时,有一些使用了人工智能。我们选择不使用那些。不是对人工智能的理念不满意,而是整体方案不是我们想要的。”
不过,人工智能还是出现在了德尼科拉的非临床工作中。他使用人工智能来优化他的电子邮件,并指出哪些邮件需要他立即关注,生成式人工智能帮助他构建了一些电子邮件的结构。
德尼科拉在撰写论文进行研究时使用了生成式人工智能。他说:“如果你想快速了解一个主题的叙述性概述,它非常有用。它总结得相当好,然后可以为你正在写的论文提供思路。”
但人工智能有其局限性。德尼科拉说:“它确实存在一些幻觉。以我的经验,它有时似乎会编造参考文献。比如它会提到某个研究,然后我去核实,发现这个研究根本不存在。”
塞利比·珀金斯也担心人工智能潜在的不准确性,并强烈敦促专业人员仔细检查其生成的内容。患者的口音或方言等文化差异可能会被人工智能转录服务完全忽略或误解。
塞利比·珀金斯说:“医生回去编辑它很重要,因为即使是收集统计数据或从人工智能中收集主观信息,在捕捉语气和语调时,它可能不会考虑到年龄、性别、文化背景等因素。”
“人工智能在一些通用的事情上可以提供帮助,为了减少偏见,我们仍然必须记住,在使用人工智能时,会存在公平、包容和多样性的问题,我们必须要留意,因为它收集信息的方式。”

