一项新研究发现,四分之一的全科医生现在在工作中使用人工智能(AI),尽管几乎无人从雇主处获得正式培训或指导。
对英国全科医生关于生成式人工智能的最大规模年度调查显示,使用ChatGPT等工具进行日常临床工作的医生数量持续上升。95%表示使用生成式AI的医生报告称未接受过专业培训,85%的医生指出其雇主并未鼓励使用该技术。
去年,同一研究团队发现仅有五分之一的全科医生使用此类技术。
瑞典乌普萨拉大学和哈佛医学院的夏洛特·布利斯博士表示:"在短短12个月内,生成式人工智能已从英国医学界的禁忌转变为实用工具。医生使用这些系统是因为它们切实有效,而非受外部指令驱动。真正的风险不在于全科医生使用AI,而在于他们在缺乏培训和监督的情况下操作。"
约35%的医生使用AI撰写医疗文档,27%用于鉴别诊断,24%用于制定治疗方案或患者转诊。
"这应当成为警醒信号,"布利斯博士强调,"AI已在日常医疗实践中应用,当前挑战在于确保其安全、合乎伦理且公开透明地部署。"
该研究由乌普萨拉大学、巴塞尔大学、卡罗林斯卡学院、曼彻斯特大学和哈佛医学院的学者联合开展,共调查英国1005名全科医生。
研究成果已于周二发表在《数字健康》科学期刊。
研究人员重点指出临床应用AI的潜在风险:技术易产生错误或"幻觉",以及训练数据偏差可能引发的"算法歧视"。作者同时对患者数据隐私问题表达深切担忧。
英格兰NHS发言人表示,AI正"帮助医护人员投入更多时间照料患者——通过加速诊断流程、解析检测结果及减少行政负担实现。建立强有力的保障机制、清晰的患者告知制度及临床医生专业培训至关重要,方能确保技术可信并为医患双方创造实质价值。"
苏格兰政府发言人称,已认识到AI在"健康与社会护理服务规划及交付"中的重要作用,"但必须与NHS从业人员紧密协作,确保AI为公共利益安全、有效且合乎伦理地应用。"
北爱尔兰卫生部发言人向天空新闻表示,全科医生在考虑使用包括人工智能在内的数字工具时,应"严格遵循现有治理规范与专业标准"。该部门强调:"在北爱尔兰,临床支持技术决策必须符合患者安全、数据保护及问责制的地方政策。"
发言人补充,该部门将"近期"发布AI应用框架,为"全系统范围内的安全、合乎伦理及透明使用提供指导准则"。该框架将"确立治理、监督与风险管理原则,并为医疗机构提供培训、评估及合规标准指引——同时促进创新。"
【全文结束】

