医疗从业者正利用人工智能工具辅助患者护理和治疗管理。(Adobe Stock照片)
人工智能在医疗领域的应用正迅速增长,既带来机遇也伴随重大风险,特别是当AI生成的信息被视作确定性医疗建议时。
专家警告称,尽管人工智能可提供初步评估并简化医学信息,但过度依赖这些系统可能延误专业诊疗并引发严重后果。
该警告源自伊斯坦布尔梅迪波尔大学副校长雷杰普·奥兹图尔克教授,他向安纳多卢通讯社(AA)阐述了人工智能在医疗领域不断扩大的作用及其对患者和医生的影响。
人工智能作为初步评估工具
奥兹图尔克教授指出,人工智能已非未来概念。全球每周约2.3亿人通过数字AI系统咨询健康生活与福祉指导。
报告显示,仅ChatGPT每日就接收超过4000万次健康相关查询,这反映了人们获取和解读健康信息方式的深刻转变。
他解释道,人工智能可通过帮助患者理解复杂的实验室结果、影像报告和症状来充当初步评估工具,同时缓解不确定性引发的焦虑。
然而他强调,这些系统无法替代医生提供确定性诊断,也不能执行体格检查和临床评估等关键任务。
过度依赖人工智能的风险
奥兹图尔克教授警告称,最大危险在于将AI生成信息视为绝对准确,这可能导致延误专业医疗咨询。
虽然人工智能在放射学、皮肤病学和病理学领域能检测人眼可能遗漏的细节,但它无法完全理解临床背景或患者病史。
他着重指出"幻觉"风险——看似可信实则错误的误导性输出。研究表明临床决策支持系统存在8%-20%的幻觉风险,部分放射学工具将良性结节误判为恶性肿瘤的概率高达12%。
辅助医生而非取代医生
人工智能整合入医院系统可减轻行政负担并增强数据分析能力。奥兹图尔克教授强调,AI工具旨在辅助而非取代医生。
即使ChatGPT Health等不提供正式诊断的平台,也能作为血糖监测或基因数据分析的医疗工具,这凸显了严格验证和监管监督的必要性。
他还指出,医生对临床决策承担完全责任,AI输出绝不能被不加批判地接受。
未来医疗从业者必须接受严格训练,以结合传统临床判断批判性评估算法建议。
【全文结束】

