随着人工智能(AI)在胃肠(GI)内窥镜领域的应用日益普及,其引发了一系列数据隐私、医生责任及公平性与偏见问题。世界内窥镜组织发布共识声明,旨在帮助临床医生、技术开发者、监管机构和医学协会应对这些挑战。
伦敦大学学院医院顾问胃肠病学家兼介入性内窥镜专家奥马尔·F·艾哈迈德(Omer F. Ahmad)医学博士、哲学博士向《Medscape医学新闻》表示:"胃肠内窥镜领域拥有最具转化潜力的AI应用场景,新用例正快速涌现。"
作者指出,结肠息肉计算机辅助检测(CADe)作为验证最充分的AI应用已进入临床实践,而新兴应用——计算机辅助诊断(CADx)、自动报告生成及AI衍生质量指标正引发广泛关注。艾哈迈德强调:"随着这些工具能力与复杂度的提升,亟需基于专家共识的指导方针,以支持其安全负责任地融入临床实践。"该十点共识声明发表于《内科医学年鉴》,由来自11个国家的14位专家共同制定。
隐私与透明度
作者指出,AI工具生成处理海量患者数据,引发数据隐私、所有权及算法开发等疑问。声明建议:胃肠内窥镜AI算法应遵守当地患者隐私与数据共享协议;内窥镜检查室内,商业AI算法及研究项目须遵循数据隐私法规;医疗机构应建立明确的数据所有权政策,使患者知晓数据用途。此外,AI工具开发者需建立机制,向监管与临床相关方透明报告算法修改、更新及性能结果。
作者写道:"这些实践能强化监管监督、支持上市后监测,并帮助临床医生理解日常使用中的模型变化与局限性。"
医疗法律考量
作者指出,AI在胃肠内窥镜中的应用要求医生实时平衡AI建议与自身临床判断,可能模糊传统医疗责任边界。例如:医生依赖错误CADx或忽视正确建议时责任如何界定?当内窥镜医师因异议驳回AI生成的"黏膜检查不充分"报告时会产生哪些风险?
声明建议:医生与医疗机构应确保AI系统使用符合制造商预期用途。作者补充:"医学协会与法律专家的明确指导可缓解责任担忧,尤其在胶囊内窥镜半自动解读及CADx应用兴起之际。"在AI驱动报告生成与性能指标广泛应用前,必须评估其准确性、明确临床相关性并厘清医疗法律影响。
艾哈迈德表示,需进一步研究评估AI在胃肠内窥镜中的真实临床影响,理想情况下应提供AI与患者实际结局关联的证据,特别是在自动报告和AI质量指标领域。
公平性与偏见
医疗研究表明,若训练数据集不能代表患者群体,AI工具可能产生偏见结果。声明要求:胃肠内窥镜AI算法应在反映服务人群种族、民族和性别构成的数据集上训练验证。作者强调:"AI研发需透明报告研究人群特征,使临床医生能评估技术普适性与公平性。"
作者补充:"需研究确定AI应用是否会因训练集代表性不足或技术获取不平等加剧医疗差距。"他们指出:"尽管并非每个胃肠内窥镜AI模型都需要按种族或性别分层,但默认假设其无关性可能忽略重要的不平等根源。数据集多样性应被视为普适性保障而非负担。"
艾哈迈德表示,前瞻性实施研究对理解AI如何改变胃肠内窥镜工作流程、责任界定及护理标准至关重要。"证明AI在不同人群和医疗场景中性能的研究,将有助于避免现有差距进一步扩大。"
重要补充
杜克大学医学中心胃肠病学家、医学助理教授杰里米·格利森·布朗(Jeremy Glissen Brown)医学博士向《Medscape医学新闻》表示:"该共识声明是对近期指南的有力补充,包括世界内窥镜组织关于CADe与CADx的立场声明、MAGIC循证生态系统基金会与BMJ动态临床实践指南,以及美国胃肠病学会关于CADe辅助结肠镜检查的动态临床实践指南。"
未参与声明制定的格利森·布朗指出:"正如作者所言,当前正是构建结构化框架的关键时机,用于审慎评估AI在内窥镜中的责任整合、安全验证与治理。结肠镜CADe自2019年在欧洲、2020年在亚洲、2021年在美国陆续进入临床应用。此外,环境语音记录技术、自动报告系统、CADq(计算机辅助质量评估)及多项CADx应用已进入开发到部署的关键阶段。"
格利森·布朗认为,尽管在医疗责任、数据治理、隐私、透明度、数据所有权及偏见风险等关键领域仍需深入研究,但该共识声明提供了重要的基础框架。
该共识声明是欧洲委员会资助项目"OperA(通过人工智能个性化治疗优化结直肠癌预防)"的组成部分。作者声明无相关财务利益冲突。格利森·布朗披露曾担任美敦力和奥林巴斯/OdinVision的顾问,并获得Magentiq的演讲酬金。
【全文结束】

