背景介绍
帕金森病(PD)已成为全球增长最快的神经退行性疾病,预计2040年患病人数将超过1200万。人工智能(AI)系统结合可穿戴传感器在PD诊断、个性化症状监测和病情预测方面展现出潜力。然而,世界卫生组织(WHO)提出AI医疗需遵循六大核心原则:人类自主权、福祉安全、透明可解释、问责制、包容公平和可持续性。欧盟"AI-PROGNOSIS"项目致力于开发基于AI的PD风险评估和预后系统,本研究通过协作共创工作坊收集利益相关者(患者、医护人员、AI专家、生物伦理学家)对可信赖AI系统的观点。
研究方法
采用探索性定性设计,通过4场协作共创工作坊收集数据。参与者包括11名PD患者(平均年龄54岁,病程8.4年)、6名医护人员(平均从业15年)、3名技术专家和1名生物伦理学家。采用半结构化指南围绕信任、公平性、可解释性、自主权及心理影响等主题展开讨论。通过主题分析法识别出5个核心主题和12个子主题,Cohen's κ系数达0.95显示高度一致性。
关键发现
主题1:AI信任与安全
参与者强调数据安全(如防黑客攻击)和系统可靠性(避免误诊)是建立信任的关键。葡萄牙患者指出:"若数据存于可随意访问的云端则不可信",英国医护人员警示数据泄露可能导致保险拒赔。技术专家提出需开发具有隐私保护和公平性验证的预测模型。
主题2:AI透明性与教育
各方呼吁加强AI教育,特别是PD患者需理解AI决策机制。瑞典患者代表建议:"需要消除AI负面认知的教育计划"。技术专家提出开发"可解释AI",要求明确训练数据来源和公平性评估。医护人员强调需标准化可视化呈现以提升非神经科医生的理解。
主题3:AI偏见问题
揭示了种族/性别偏见、数据不完整和临床评估变异三类风险。美国医疗算法存在种族偏见的案例被提及,英国医生指出临床时间限制导致非运动症状数据缺失。建议通过可穿戴设备远程收集标准化运动数据,减少人为评估偏差。
主题4:人类监督
PD患者强烈要求医疗专业人士监督AI决策,瑞典患者强调:"由机器单独治疗令人恐惧"。医护人员提出AI应作为辅助工具,如同CT扫描仪,最终责任仍由医生承担。建议制定AI临床应用指南,避免强制使用未经理解的AI系统。
主题5:心理影响
担忧AI误诊引发焦虑,如75%帕金森风险预测可能导致患者极端反应。医护人员强调需谨慎沟通预测结果,如西班牙医生指出:"若无法改变结果,提前告知PD风险可能造成心理负担"。建议开发情感敏感型AI界面,提供人性化解释支持。
实践启示
- 开发具有鲁棒安全机制的AI系统,采用差分隐私等技术保护敏感数据
- 建立AI可解释性框架,如可视化决策路径和训练数据溯源
- 实施偏见缓解策略,包括多样化数据采集和定期算法审计
- 构建人机协作流程,在诊断环节保留医生复核机制
- 设计情感计算模块,评估AI交互对患者心理健康的影响
研究局限
样本规模较小且参与者具较高AI认知水平,可能限制结论普适性。英语能力要求可能导致非英语国家观点缺失,但确保了讨论深度。后续研究将通过全欧用户调查和纵向跟踪深化发现。
未来方向
计划开展三轮原型迭代测试:
- 第二轮工作坊优化用户界面设计
- 第三轮收集真实使用反馈
- 开发初始最小可行产品
同时将深入研究文化差异对AI信任度的影响,探索护理人员参与机制及共病管理中的AI应用路径。
【全文结束】

