人工智能在医疗中的意外后果
医生和患者能否抵制将技术视为神奇的诱惑?
米迦勒·H·伯恩斯坦和格雷森·L·贝尔德是布朗大学沃伦·阿尔珀特医学院的研究心理学家及副教授。
人工智能最具前景的应用领域之一在医疗行业。目前由医生主导的诸多任务——例如癌症检测和治疗方案推荐——未来或将由人工智能接管。如今,医生们已开始借助ChatGPT提供辅助。
然而,对人工智能的狂热掩盖了若干必须正视的意外后果,这正是我们研究实验室持续探索的方向。
首先,由于任何人工智能系统均非完美,医生在使用过程中难免接收到错误输出——假阳性或假阴性结果。在一项研究中我们发现:当放射科医生依据人工智能提供的错误影像反馈进行X光片判读时,其准确率反而低于完全不依赖AI指导的独立判读。
在与医生同行讨论该研究时,我们发现普遍存在的担忧:若AI提示存在异常而医生予以否决,可能面临医疗事故诉讼风险。为此我们开展了后续研究验证该担忧是否合理。
我们要求参与者模拟陪审员角色,提供一则医生因漏诊脑出血等异常情况被起诉的简要案例。部分参与者被告知"AI已检测出异常但医生否决了AI判断",另一部分则未获知任何AI相关信息。结果正如医生同行所预料:当医生否决AI判断时,模拟陪审员更倾向于认定医疗事故成立。
乍看之下,医生在发现潜在异常时优先遵循AI建议似乎无可厚非——安全总比遗憾好,对吗?问题在于:任何用于检测罕见异常的系统都必然产生大量"过度预警":当AI判定某病例可疑时,绝大多数患者实际完全健康。这源于医学影像技术的天然局限性。
以乳腺癌检测为例:某AI算法标记为可疑的67例乳腺X光检查中,仅1例最终确诊为乳腺癌。在常规筛查人群中,异常率通常低于1%,这意味着假阳性结果几乎不可避免。
但若医生因否决AI而面临追责,他们将极度抗拒质疑AI判断。尽管漏诊乳腺癌等疾病对患者健康的危害远大于过度检查,但无谓的后续检测仍带来多重代价:经济负担、时间成本与心理压力。医生并无动力拒绝开具非必要检查——额外费用不由他们承担,误工与焦虑也非他们承受。
我们担忧的最终局面是:人工智能将催生医疗新纪元,患者将频繁经历一轮又一轮检查,最终却发现根本不存在健康问题。社会整体亦将为此付出代价:诊断影像年支出超千亿美元,更多检查意味着更高的免赔额与共付费用。
但我们相信存在解决方案:拒绝将人工智能神化。人们容易误以为AI完美无缺,实则它与医生一样必然犯错。
研究显示,通过向患者明确告知"AI在医疗决策中的错误率",可显著降低其诉讼倾向,并对否决AI后犯错的医生产生更多同理心。这些错误率数据可通过电子患者门户提供,使用AI辅助诊断的医生亦可向患者发放简明手册,解释人工智能的基本原理、运作方式及出错频率。
并非所有患者都会阅读这些信息,但部分人的关注已是良好开端。
我们认为人工智能终将为医疗带来整体进步,但绝非毫无代价的福音。我们必须审慎思考其引发的问题,并主动制定解决方案。
【全文结束】

