医疗领域应用人工智能需患者和医生保持警惕AI in healthcare demands caution from patients and doctors - Türkiye Today

环球医讯 / AI与医疗健康来源:www.turkiyetoday.com土耳其 - 英语2026-02-03 02:32:10 - 阅读时长2分钟 - 868字
随着人工智能在医疗领域的快速应用,全球每周约2.3亿人通过数字AI系统获取健康指导,仅ChatGPT每日就处理4000万次健康查询,但专家警告过度依赖AI可能导致严重后果,伊斯坦布尔梅迪波尔大学雷杰普·奥兹图尔克教授指出临床决策支持系统存在8%-20%的"幻觉"风险,部分放射学工具将良性结节误判为恶性肿瘤的概率高达12%,强调AI仅能作为初步评估工具辅助医生解读检测报告和症状,绝不能替代专业临床诊断和体格检查,未来医疗从业者必须接受严格训练以批判性评估算法建议。
医疗领域人工智能健康患者医生初步评估过度依赖风险辅助而非取代幻觉风险临床决策监管验证
医疗领域应用人工智能需患者和医生保持警惕

医疗从业者正利用人工智能工具辅助患者护理和治疗管理。(Adobe Stock照片)

人工智能在医疗领域的应用正迅速增长,既带来机遇也伴随重大风险,特别是当AI生成的信息被视作确定性医疗建议时。

专家警告称,尽管人工智能可提供初步评估并简化医学信息,但过度依赖这些系统可能延误专业诊疗并引发严重后果。

该警告源自伊斯坦布尔梅迪波尔大学副校长雷杰普·奥兹图尔克教授,他向安纳多卢通讯社(AA)阐述了人工智能在医疗领域不断扩大的作用及其对患者和医生的影响。

人工智能作为初步评估工具

奥兹图尔克教授指出,人工智能已非未来概念。全球每周约2.3亿人通过数字AI系统咨询健康生活与福祉指导。

报告显示,仅ChatGPT每日就接收超过4000万次健康相关查询,这反映了人们获取和解读健康信息方式的深刻转变。

他解释道,人工智能可通过帮助患者理解复杂的实验室结果、影像报告和症状来充当初步评估工具,同时缓解不确定性引发的焦虑。

然而他强调,这些系统无法替代医生提供确定性诊断,也不能执行体格检查和临床评估等关键任务。

过度依赖人工智能的风险

奥兹图尔克教授警告称,最大危险在于将AI生成信息视为绝对准确,这可能导致延误专业医疗咨询。

虽然人工智能在放射学、皮肤病学和病理学领域能检测人眼可能遗漏的细节,但它无法完全理解临床背景或患者病史。

他着重指出"幻觉"风险——看似可信实则错误的误导性输出。研究表明临床决策支持系统存在8%-20%的幻觉风险,部分放射学工具将良性结节误判为恶性肿瘤的概率高达12%。

辅助医生而非取代医生

人工智能整合入医院系统可减轻行政负担并增强数据分析能力。奥兹图尔克教授强调,AI工具旨在辅助而非取代医生。

即使ChatGPT Health等不提供正式诊断的平台,也能作为血糖监测或基因数据分析的医疗工具,这凸显了严格验证和监管监督的必要性。

他还指出,医生对临床决策承担完全责任,AI输出绝不能被不加批判地接受。

未来医疗从业者必须接受严格训练,以结合传统临床判断批判性评估算法建议。

【全文结束】

猜你喜欢
  • 人工智能在医学教育与医疗保健中的应用人工智能在医学教育与医疗保健中的应用
  • 弗林特医生警告慎用人工智能工具进行健康自诊弗林特医生警告慎用人工智能工具进行健康自诊
  • 采访医生:哪种运动最有效强化心脏健康采访医生:哪种运动最有效强化心脏健康
  • 从边缘到主流 专家呼吁采取行动应对环境性心血管风险从边缘到主流 专家呼吁采取行动应对环境性心血管风险
  • 新扫描技术可在症状出现前数年发现心脏病新扫描技术可在症状出现前数年发现心脏病
  • FDA警告"古德诺医生"健康中心创始人 其近期补充剂研究将患者健康置于风险中FDA警告"古德诺医生"健康中心创始人 其近期补充剂研究将患者健康置于风险中
  • 心电图识别冠状动脉疾病的用途:人工智能模型的交叉验证心电图识别冠状动脉疾病的用途:人工智能模型的交叉验证
  • CPT附录S:医疗服务与程序的人工智能分类法CPT附录S:医疗服务与程序的人工智能分类法
  • 拉什医疗中心测试Apple Vision Pro辅助检测结肠癌拉什医疗中心测试Apple Vision Pro辅助检测结肠癌
  • 微生物组遇见更年期:哪些是可行的,哪些是炒作,以及你应该问医生什么微生物组遇见更年期:哪些是可行的,哪些是炒作,以及你应该问医生什么
热点资讯
全站热点
全站热文