生成式人工智能利用计算机程序根据提示生成类似人类的文本或语音。这些被称为大型语言模型(LLMs)的AI模型能够理解和生成临床笔记、医患对话及其他医疗文件。例如,匹兹堡大学的临床自然语言处理与人工智能创新实验室(PittNAIL)正在开发此类模型。
王彦山博士(Yanshan Wang)致力于运用AI和自然语言处理(NLP)工具从电子健康记录(EHRs)中提取有用信息。他的项目通过从医疗记录中提取详细数据,帮助改善阿尔茨海默病、心理健康问题和癌症的护理质量。
PittNAIL的研究成果展示了生成式AI如何简化医疗文书工作并改善与患者的沟通。一家名为Simbo AI的公司利用AI自动接听电话和安排预约,从而减少医疗办公室对人力资源的需求,提高工作效率。
尽管AI工具带来了显著的帮助,但也引发了关于伦理和隐私的复杂问题,这是美国医疗工作者和IT人员必须认真思考的。
医疗领域生成式AI的伦理挑战
医疗领域的AI必须遵循与所有医疗工作相同的伦理原则,包括尊重患者选择、行善、避免伤害和公平性。在诊所中使用生成式AI需要仔细权衡这些原则。
隐私与数据保护
患者隐私在医疗保健中至关重要,并受到法律如《健康保险可携性和责任法案》(HIPAA)的保护。然而,生成式AI需要大量数据,包括来自健康记录的敏感患者信息。如果这些数据未经授权被访问或使用,可能会损害患者隐私。
研究人员达里什·D·法鲁德(Dariush D. Farhud)和莎盖耶格·佐凯伊(Shaghayegh Zokaei)指出,AI可能面临数据错误、编程漏洞和安全漏洞等问题。虽然欧盟的《通用数据保护条例》(GDPR)和美国的《基因信息非歧视法案》(GINA)等法律有助于保护数据,但它们无法涵盖所有AI风险。
例如,AI可能会收集或共享超出预期的患者数据。如果没有严格的访问控制和明确的患者同意,患者可能无法知道或控制其数据如何被AI使用。
知情同意
患者必须同意分享其信息或接受治疗。当像Simbo AI的电话服务这样的AI工具与患者互动时,医务人员必须确保患者知道他们正在与AI交流,并了解其信息将如何被使用。
医生和诊所应向患者解释AI的风险,例如错误或隐私问题。患者应有权拒绝AI服务,同时仍能获得人工护理。美国医学协会(AMA)表示,清晰的沟通和诚实有助于维持患者与医疗服务提供者之间的信任。
AI系统中的偏见与公平性
AI有时可能存在不公平的问题。偏见可能导致错误建议、错误诊断或不平等的护理。这种偏见可能来自以下几个方面:
- 数据偏见:如果AI从未能涵盖所有患者群体的数据中学习,它可能对某些人群效果不佳。
- 开发偏见:AI的开发过程可能无意中偏向某些群体。
- 交互偏见:AI在诊所中的使用方式可能影响其结果。
马修·G·汉娜(Matthew G. Hanna)及其团队指出,我们必须从AI的创建到其在诊所的应用持续检查AI。否则,AI可能会加剧现有的不公或基于种族、性别或收入给出不同结果。
对就业和人际互动的影响
AI自动化可能改变医疗工作人员(如接待员和护士)的工作性质。像Simbo AI提供的服务可以减少对某些岗位的需求。
此外,AI缺乏情感,无法表现出同理心,而这在儿童医学和心理健康等领域尤为重要。法鲁德和佐凯伊指出,许多患者可能不愿意完全由机器提供护理。医疗领导者必须在使用AI的同时保持人性化的关怀。
美国医疗系统中患者隐私的影响
美国的医疗工作者必须在严格的规定下保护患者数据,例如HIPAA。该法律要求患者信息必须保密、准确,并且仅限授权人员访问。
生成式AI带来了新的隐私问题:
- 数据处理:AI读取和处理大量来自临床笔记和患者对话的文本。如果这些系统将数据存储在云端或与外部公司共享,数据必须符合HIPAA规定。
- 安全问题:AI系统可能成为黑客的目标。其复杂性使得追踪数据使用变得困难。
- 同意与透明度:患者可能不知道AI如何使用他们的数据。清晰的解释和征求同意应在诊所中成为常态。
医疗机构应采用强大的网络安全措施,定期更新AI软件,并进行常规检查以遵守规定。与值得信赖的AI公司(如Simbo AI)合作可以降低风险。
通过AI和工作流程自动化解决伦理问题
AI正在改变医疗保健的运作方式,特别是在办公室任务中。Simbo AI的电话自动化展示了AI如果谨慎使用,如何帮助高效且合乎道德地管理医疗办公室。
患者沟通的自动化
自动化的电话应答可以处理大量呼叫、安排预约、回答常见问题并提供下班后的支持。这减少了等待时间,使员工能够专注于需要人类判断的任务。
然而,患者必须被告知AI的使用情况。系统必须允许患者在需要时轻松联系到人工客服以维持信任。
简化文档和数据录入
生成式AI可以帮助医生完成文书工作,例如输入和总结医患对话、从记录中提取重要数据以及建议笔记格式。
这减轻了临床医生的工作压力,并可以减少错误。但医疗管理者必须确保AI不会损害数据质量或引入偏见。
定期监控与培训
使用AI自动化意味着员工必须了解AI的优势和局限性。IT团队需要与供应商和服务提供商合作,监控AI性能,保护数据安全,并根据反馈和新法规更新规则。
自动化中的嵌入式伦理原则
像Simbo AI这样的公司应确保其技术遵循伦理原则。例如,王彦山提出的“GREAT PLEA”框架强调了隐私、透明度、公平性和责任等关键点。
医疗管理者在购买技术或评估质量时应向AI供应商要求此类伦理保障。
利用生成式AI支持临床伦理
生成式AI还可以通过自然语言处理帮助医生做出临床决策,改进诊断和治疗建议。然而,正如PittNAIL专家所言,必须对AI进行仔细测试,以避免因偏见结果而意外伤害患者。
医疗领导者需要在AI的益处与专业判断和伦理控制的需求之间取得平衡。
美国医疗提供者的未来方向
美国的医疗组织面临着在使用先进AI的同时保护患者隐私和坚守伦理的挑战。这一挑战意味着他们必须做到以下几点:
- 清晰地与患者沟通AI、风险和数据使用情况;
- 获取说明AI流程的患者同意;
- 使用强大的数据安全措施保护健康信息;
- 密切监控AI系统以发现并修复偏见或错误;
- 在AI效率与人性化关怀之间取得平衡;
- 与遵循伦理和法律的值得信赖的AI公司合作。
像美国国立卫生研究院(NIH)和美国医学信息学协会(AMIA)这样的机构为使用AI的医疗机构提供了帮助和建议。这些资源协助医疗管理者和IT人员应对AI带来的伦理和工作挑战。
生成式AI为医疗沟通和办公室任务提供了实用帮助。像Simbo AI这样的公司展示了AI如何实现电话工作的自动化。然而,这些工具必须谨慎使用,以遵守美国法律对伦理和患者隐私的要求。在新技术与责任感之间保持良好平衡将是AI成为医疗管理常态化的一部分的重要前提。
(全文结束)

