世界卫生组织(WHO)警告称,人工智能(AI)在医疗保健领域的迅速崛起,缺乏保护患者和医护人员所需的基本法律安全网。
一份详细审视包括英国在内的欧洲国家AI使用情况的报告发现,AI被广泛用于帮助医生识别疾病、减少行政任务以及与患者沟通。
报告指出,当AI系统出错或造成伤害时,谁应负责的问题亟待解答。报告发现,尽管欧洲区域几乎所有国家都认识到AI变革医疗保健的潜力,但“准备程度”仍不均衡且零散。
报告发现,在受调查的50个欧洲国家中,仅有4个国家制定了专门的国家健康AI战略,另有7个国家正在制定相关战略。
世卫组织表示,欧洲在数据治理的某些领域仍滞后,包括健康数据用于公益研究的二次使用指南、跨境数据共享规则,以及与私营公司合作开展公益健康研究的框架。
报告总结称,若不解决这些缺口,AI倡议可能产生技术先进的工具,却无法完全满足临床或公共卫生需求。
世卫组织欧洲区域主任汉斯·亨利·P·克吕热博士表示:“AI已成为欧洲区域数百万医护人员和患者的现实。”
“但若缺乏明确战略、数据隐私保护、法律保障措施及AI素养投资,我们可能加剧而非减少不平等。”
报告欢迎部分国家采取的积极措施,例如爱沙尼亚将电子健康记录、保险数据和人口数据库整合到统一平台以支持AI工具,以及芬兰对医护人员进行AI培训的投资。
报告还指出,西班牙正在初级医疗保健中试点AI用于早期疾病检测。
英国政府热衷于采用AI提升医疗效率,并宣布将在全科医生诊所推广相关工具。
但报告发现,欧洲的监管难以跟上技术发展步伐。
近九成国家表示法律不确定性是AI采用的主要障碍,78%国家将财务限制列为重大障碍。
英国将基础设施列为首要障碍,其次是战略、数据质量与标准、财务限制、能力、信任及环境影响。
半数国家已部署聊天机器人为患者提供协助,英国称这已是AI的“既定”用途。
与此同时,不足一成的国家制定了医疗AI责任标准,用于确定AI系统出错或造成伤害时的责任归属。
世卫组织欧洲区域卫生系统主任娜塔莎·阿佐帕迪-穆斯卡特博士表示:“我们站在十字路口。AI要么用于改善民众健康福祉、减轻疲惫医护人员的负担并降低医疗成本,要么可能损害患者安全、侵犯隐私并固化护理不平等。选择权在我们手中。”
世卫组织呼吁各国明确责任归属,建立伤害补救机制,并确保AI系统在接触患者前“经过安全性、公平性及实际效果测试”。
该报告发布之际,英国心理咨询与心理治疗协会(BACP)警告称,儿童使用ChatGPT等AI工具获取心理健康建议的风险日益增长。
BACP调查显示,超过三分之一(38%)为18岁以下人群服务的治疗师发现客户从AI平台寻求心理健康指导,五分之一治疗师报告儿童收到有害的心理健康建议。
治疗师表示,部分AI工具提供潜在有害且误导性的信息——包括鼓励儿童自我诊断注意缺陷多动障碍(ADHD)和强迫症(OCD)、强化回避行为,以及自动验证其表达的任何感受。
BACP特别担忧AI无法提供实时支持或在危机情况下进行干预。
【全文结束】

