近期,清华大学临床医学科技创新大会与首届大湾区医学人工智能大会相继召开,中国科学院院士张钹、钟南山院士共同强调:AI在医疗领域的角色是“辅助者”而非“替代者”。张钹指出,AI虽能提升标准化工作效率,但存在“黑箱”特性与决策不可解释性;钟南山则明确,医生的临床判断与人文关怀无法被AI复制——这一观点,因2025年北京首例AI误诊致死案更受关注:某三甲医院用AI分析冠脉CT后直接作为诊断依据,系统未结合患者家族心脏病史,未能识别冠状动脉痉挛引发的狭窄,最终导致患者心源性猝死。两场会议与这起案例,让“AI与医生的共生关系”成为医疗行业的讨论焦点。
AI医疗的“超能力”和“不会做的事”:看完你就懂了
AI在医疗中的优势,首先体现在“效率”上——钟南山团队数据显示,AI做CT影像筛查时,肺结节检出速度比人工快3倍,小结节识别准确率能到96%;医生写病历的时间,也因为AI自动生成减少了40%。其次是“标准化”——骨科手术导航系统用AI规划路径,能把截骨误差控制在1mm以内,比人工更精准;药物相互作用筛查、手术方案设计这些重复性任务,AI还能降低人为误差。
但AI的“不会做”更关键:它没法整合动态信息,比如北京误诊案里,AI只看了影像数据,没关联患者家族心脏病史,漏掉了冠脉狭窄的临床关联;它读不懂“人”的情绪,比如患者临终前的关怀、因恐惧并发症隐瞒饮食的糖尿病患者,AI没法通过微表情、语气识别焦虑,更没法建立信任;它还有“黑箱”缺陷——给出诊断结果,却没法解释“为什么得出这个结论”,就像你问它“为什么说我有肺癌?”,它只能告诉你“因为影像里有个结节”,但没法说清结节和癌症的因果关系。
AI误诊不是偶然:藏在技术里的3个“隐形坑”
第一个坑是“数据偏差”——如果AI训练用的是欧美人群数据,可能低估亚洲人糖尿病肾病的早期指标,比如尿微量白蛋白的阈值,欧美标准可能比亚洲人高,导致筛查时漏诊。第二个坑是“因果推断局限”——AI靠“相关性”给建议,比如它发现“某类患者用A药效果好”,但没法解释“为什么A药对张三没用”,比如化疗方案要结合基因突变和患者体质,AI没这能力。第三个坑是“伦理与责任空白”——晚期癌症患者要不要选姑息治疗?AI算不出患者的家庭经济状况、文化背景对治疗意愿的影响;疫情时呼吸机配给、器官移植优先级,这些需要社会伦理判断的事,AI没“价值观”。还有责任归属——北京误诊案里,医院说“是AI的问题”,AI供应商说“是医生没把关”,操作医生说“我按AI结果做的”,三方互相推诿,现行医疗法规根本没说清楚谁该负责。
未来医生的“新本事”:要会用AI,更要会“管”AI
未来医生得先学会“和AI合作”——比如看影像时,不能直接信AI的标注,得对比患者的临床症状:AI说“肺里有个结节”,你得问患者“最近有没有咳嗽、胸痛?”“家族里有没有肺癌病史?”,避免被AI的“自动化偏见”带偏。然后得会“解释AI”——比如AI推荐了两种靶向药,你得告诉患者“为什么选A药不选B药?因为你有EGFR基因突变,A药针对这个突变,但B药可能会伤你的肝”,把AI的“相关性”变成“因果性”。
还有“人文沟通”的本事更不能丢——比如糖尿病患者因为怕并发症,偷偷吃了蛋糕却不告诉你,这时候你得用“叙事医学”:不是问“你有没有吃甜的?”,而是说“你最近是不是担心吃药会伤肾?”“家里人有没有说你血糖控制得不好?”,通过倾听患者的故事,找出他隐瞒的原因,再针对性建信任。比如乳腺癌患者要做手术,你得考虑她是老师,要保护发声功能;或者她要照顾孩子,得选恢复快的方案,这些人文因素AI根本不懂。
还要会“监督AI”——比如AI推荐抗生素方案,你得核查:有没有排除患者的过敏史?数据里有没有漏了他之前青霉素过敏的记录?现在医学院都在加AI伦理课,模拟器官移植配对、实验性疗法选择的场景,就是要让医生学会在AI给出的方案里,加一层“价值判断”。
AI是医生的“数字战友”,但人文关怀与临床判断才是医疗的核心。

