研究显示,若不立即采取措施确保人工智能技术对使用它们的临床医生切实有效,其对患者护理的潜在益处可能被忽视。
这份白皮书建立在共享CAIRE(共享护理AI角色评估)研究项目成果基础上。全球范围内,医疗保健领域是人工智能投资规模最大的行业之一,也是多国公共政策推动构建更高效、响应更迅速医疗体系的核心。今年早些时候,英国政府已制定策略以“加速推进医疗AI发展”。
该白皮书由约克大学(University of York)自主保障中心、MPS基金会(MPS Foundation)及布拉德福德健康研究所(Bradford Institute for Health Research)托管的改进学院联合撰写,指出医疗AI应用面临的最大威胁在于临床医生的“关闭开关”倾向——若一线医生认为技术繁琐、不适用,或对其决策、患者安全及执业资格产生疑虑,便很可能拒绝使用。
责任承担风险
报告核心关切之一是临床医生可能沦为“责任承担者”,即需为AI辅助决策承担全部法律责任,即使系统本身存在缺陷。白皮书依托共享CAIRE项目研究成果,该项目与自主保障中心合作开展,考察了六种AI决策支持工具对医生的影响,汇聚了安全、医学、人工智能、人机交互、伦理及法律领域的专家。
约克大学自主保障中心教授、共享CAIRE项目安全负责人伊布拉欣·哈布利(Ibrahim Habli)表示:“本白皮书为身处NHS及更广泛医疗一线的临床医生提供了清晰可行的安全使用建议。这些建议基于患者与医生的共同洞察,立足真实场景及近期即将落地的AI工具,可直接应用于当前实践。”
医生自主权
研究团队评估了AI工具的多样化应用场景:从单纯提供信息的工具,到直接向医生提出建议的系统,再到与患者直接交互的方案。参与研究的医生与患者均强调需维护医生自主权——医生更倾向使用能突出相关临床数据(如风险评分)但不给出明确治疗建议的AI模型,表明其偏好辅助决策而非主导判断的信息型工具。白皮书同时指出,医生必须全程参与所用AI工具的设计开发,且需改革现有产品责任法规,因现行制度难以适用于AI工具。
职业倦怠危机
布拉德福德教学医院NHS信托重症监护与麻醉顾问医师、共享CAIRE临床及AI负责人汤姆·劳顿(Tom Lawton)教授警告:“医疗AI正从愿景快速走向现实,但发展速度过快可能导致技术更契合开发者而非医患需求。此类失败将引发医生职业倦怠、效率低下及患者声音缺失——当医生选择关闭系统时,AI改善医疗的潜力亦将丧失。我们相信本白皮书能解决这一紧迫问题。”白皮书提出七项建议以避免AI工具被弃用,作者呼吁政府、AI开发商及监管机构亟需落实全部建议。
技术变革挑战
资助该研究的MPS基金会主席戈齐·奥菲亚(Gozie Offiah)教授指出:“技术进步正推动医疗领域剧变,但需正视现实挑战与风险,首要任务是确保医生作为AI的知情使用者而非技术仆从。”研究团队已致函监管机构与政府部长,敦促采纳新建议。
白皮书七项核心建议:
AI工具应向医生提供信息而非建议
鉴于现行产品责任制度下AI建议的法律效力不明确,提供信息而非建议可降低医患双方潜在风险。
在允许AI提出建议前修订产品责任法规
现行制度难以适用于AI工具,若不改革,医生将被迫充当“责任承担者”,为系统缺陷导致的错误承担全部责任。
AI企业需提供充分培训以确保医生安全担责
医生必须理解AI工具的预期用途、适用场景、验证环境及其训练数据集的范围与局限(包括潜在偏见),方能为患者提供最佳护理。
禁止将AI工具等同于资深同事
新医疗AI政策指南及医疗机构规范需明确医生如何处理与AI的意见分歧,不得要求医生像对待资深同事般无条件服从AI建议。
披露使用AI应基于医生专业判断
鉴于医生对患者护理负全责,且与AI意见相左可能引发患者焦虑,是否告知患者决策参考了AI工具应由医生根据情境自行裁量。
设计必须以用户为中心
在医疗这类高危快节奏领域,让医生参与AI工具各环节设计——从界面、信息平衡到实施细节——可确保技术增益大于负担。
AI工具需提供恰到好处的信息量
通过医生深度参与设计,可使AI决策支持工具达到“恰如其分”的信息平衡,既不过载亦不缺失。
【全文结束】

