iMerit数据公司的执业外科医生兼AI医疗领导者Sina Bari博士亲眼目睹过ChatGPT因提供错误医疗建议误导患者的情况。
“最近有位患者就诊时,拿着ChatGPT打印的对话记录质疑我开具的药物,声称该药物有45%概率引发肺栓塞,”Bari博士向TechCrunch透露。经核查,该数据实际源自针对结核病特殊人群的药物研究论文,根本不适用于他的患者。
然而当OpenAI上周宣布推出专用医疗聊天机器人ChatGPT Health时,Bari博士表现出的更多是期待而非担忧。
即将面世的ChatGPT Health允许用户在隐私环境中咨询健康问题,其对话内容不会被用于训练底层AI模型。
“我认为这很棒,”Bari博士表示,“既然这类应用已普遍存在,通过规范化保护患者信息并设置安全机制……将使其为患者创造更大价值。”
用户可通过上传医疗记录及同步Apple Health、MyFitnessPal等应用获取个性化指导,但此举立即引发安全顾虑。数据防泄漏公司MIND联合创始人Itai Schwartz向TechCrunch指出:“符合HIPAA标准的医疗机构突然向非合规供应商传输医疗数据,我很关注监管机构将如何应对。”
部分业内人士认为趋势已不可逆——如今人们不再搜索感冒症状,而是转向AI聊天机器人,每周已有超2.3亿人通过ChatGPT咨询健康问题。
“这本就是ChatGPT的最大应用场景之一,”专注医疗科技投资的Gradient合伙人Andrew Brackin表示,“因此开发更私密、安全、优化的医疗专用版本合情合理。”
AI聊天机器人普遍存在“幻觉”问题,在医疗领域尤为敏感。Vectara事实一致性评估模型显示,OpenAI的GPT-5比多数谷歌和Anthropic模型更易产生幻觉。但AI企业仍看到其解决医疗效率瓶颈的潜力(Anthropic本周也发布了医疗产品)。
斯坦福医学院教授兼斯坦福医疗保健首席数据科学家Nigam Shah博士认为,美国患者难以获得及时诊疗的现状,比ChatGPT提供建议的风险更为紧迫。
“当前任何医疗系统中,预约初级保健医生的等待期都长达3-6个月,”Shah博士说,“若必须在等待六个月和使用非医生但能解决部分问题的工具间选择,你会选哪个?”
他主张AI应优先在医疗提供方而非患者端落地。医学期刊常报道行政事务消耗初级保健医生近半工作时间,这大幅削减了每日接诊量。若能自动化处理此类工作,医生即可服务更多患者,或许能减少人们在缺乏医生指导时使用ChatGPT Health的需求。
Shah博士正带领斯坦福团队开发ChatEHR系统,该软件集成于电子健康记录系统,使临床医生能更高效地调阅患者病历。
“优化电子病历的用户体验意味着医生无需耗费时间翻查冗杂信息,”ChatEHR早期测试者Sneha Jain医生在斯坦福医学院文章中表示,“ChatEHR能前置呈现关键信息,让医生专注核心任务——与患者沟通并诊断病情。”
Anthropic也在开发面向临床医生和保险机构的AI产品,而非仅限于公开聊天机器人Claude。本周该公司宣布的Claude for Healthcare旨在缩减提交保险预先授权等繁琐事务的时间。
“部分从业者每周处理数百甚至数千例预先授权申请,”Anthropic首席产品官Mike Krieger在摩根大通医疗健康会议中表示,“若每例节省20-30分钟,将产生显著时间效益。”
随着AI与医学日益融合,两者存在根本性张力:医生的核心使命是服务患者,而科技公司最终需对股东负责——即便初衷良好。
“这种张力至关重要,”Bari博士强调,“患者正依赖我们保持审慎和保守的态度来守护他们的安全。”
【全文结束】

