专门的医疗人工智能聊天机器人正越来越多地融入医疗保健领域,协助临床医生处理行政工作、研究、文档记录和诊断支持,同时也引发了关于隐私、监管合规以及基于机器推理的局限性的担忧。
医生们正在使用AI系统来帮助管理每年发表的大量医学研究文献。正如西奈山伊坎医学院的住院医师贾里德·达谢夫斯基(Jared Dashevsky)博士所指出的,"你需要每天花18个小时才能跟上"每年发表的数百万篇研究论文,CNN报道称。
这些工具越来越被依赖用于总结临床文献并指导医生应对不断变化的医疗指南。然而,专家强调,通用系统并不总是适合临床使用。"ChatGPT就像你疯狂的叔叔,"加州大学旧金山分校的教授伊达·西姆(Ida Sim)博士说,这突显了非专业模型在可靠性方面的担忧。
行政任务仍然是最直接的应用领域之一。AI被用于起草保险事先授权的通信,减少了原本可能需要临床医生每周花费数小时的工作量。在文档记录方面,聊天机器人被用来生成患者就诊和住院经历的摘要。达谢夫斯基博士认为,"让人工智能回顾整个住院过程并了解所有发生的事情可能更安全,而不是你作为人类——在有限时间内,从一个记录跳到另一个记录——试图把所有信息拼凑起来,"他指的是AI在复杂病例中减少遗漏的潜力。
在临床决策支持方面,医学生和医生使用AI基于患者数据(如实验室结果和影像)生成可能的诊断。拉什大学医学院的医学生埃文·帕特尔(Evan Patel)说,"当我建立鉴别诊断时,AI聊天机器人在某种程度上帮助我确定可能的情况。"
尽管有这些好处,专家们仍警告不要过度依赖自动化系统。"人们把AI当作魔法。它不是魔法。它不能做你想要的任何事情,"斯坦福医学院的副教授乔纳森·H·陈(Jonathan H. Chen)博士说。他还指出输出的变异性,补充道,"你问同一个问题10次,它会给你10个不同的答案。"
隐私问题仍然是一个重大问题,特别是使用未经授权的系统(有时被称为"影子AI")时。这些工具可能不符合医疗保健隐私要求。"'HIPAA合规'不是任何公司应该使用的准确术语,"医疗保健律师、美国卫生与公众服务部HIPAA执法前负责人伊莲娜·彼得斯(Iliana Peters)说,这突显了该领域的监管模糊性。
专家们还警告将患者信息上传到未经批准平台所涉及的数据风险。"数据就是钱,"斯坦福医学院的住院医师卡罗琳·考夫曼(Carolyn Kaufman)博士说,这突出了敏感信息可能被商品化的担忧。
除了隐私问题外,临床医生强调AI缺乏现实医学中所需的上下文判断能力。"如果我们只是应用指南,那就取代我们吧,"西姆博士说,这指出了超越基于规则建议的临床判断的重要性。
虽然AI在管理医疗"知识"和行政"工作流程"方面越来越有效,但专家警告说,它并不能复制人类在解释复杂、不断变化的患者情况方面的专业知识。
【全文结束】

