医疗保健中的人工智能监管:医生如何确保AI工具的安全性?
作者:托德·施赖克(Todd Shryock)
事实核查员:克里斯·马佐利尼(Chris Mazzolini)
医生需要了解有关AI治理、安全性和在患者护理中负责任使用的知识。
人工智能正在以快速的步伐改变医疗保健行业,为改善诊断、简化工作流程和提升患者治疗效果提供了新的机遇。但随之而来的也有围绕AI安全性、监督和治理的严峻挑战。对于医生和医疗保健机构来说,理解这些挑战对于确保患者信任和防范意外伤害至关重要。
最大的风险之一是在没有适当治理结构的情况下在医疗保健中采用人工智能。如果没有保障措施,医生可能面临不准确的输出、有偏见的建议或责任问题,这些问题会损害患者护理。虽然医疗保健行业开始为AI安全性制定标准,但在监督方面仍存在漏洞,这为错误留下了空间。需要更强大的框架来确保工具在临床环境中透明、经过验证且负责任地使用。
对于医生个人来说,这意味着在依赖AI工具之前需要提出正确的问题。医生需要了解系统是如何训练的、它依赖哪些数据,以及是否已在真实环境中进行测试。监控真正重要的指标——如实践中的准确性、偏差和可靠性——对于确保患者安全至关重要。
在大型语言模型时代,传统的治理模型已显得不足,这些模型的行为与早期的医疗软件不同。医疗保健组织必须重新思考如何随时间评估、监控和审计这些工具。另一个挑战是"影子AI"的兴起,即在医疗系统内未经授权使用AI系统。识别和管理这种隐藏的采用现在已成为医疗保健中AI治理的关键部分。
医疗保健也可以从其他安全关键型行业(如自动驾驶汽车)中学习,这些行业需要严格的测试、持续的监督和明确的责任。通过应用类似的原则,医疗保健领导者和医生可以为医学中的人工智能创造一个更安全、更透明的环境。
随着AI深度融入医疗保健,那些优先考虑治理、安全和负责任使用的医生和医疗机构将最有利于同时提供创新和患者保护。《医疗经济学》与Qualified Health的首席医疗官兼联合创始人凯达尔·梅特(Kedar Mate)医学博士就医生应如何处理这些问题进行了交谈。在本期节目中,梅特讨论了医生如何确保他们使用的AI工具是安全的。
【全文结束】

