如何正确看待向聊天机器人寻求医疗建议
向通用聊天机器人寻求医疗帮助曾被视为盲目尝试——仅仅两年前,一项研究发现ChatGPT仅能正确诊断10%的儿科病例。谷歌Gemini早期建议包括"每日食用一颗小石子"和"用胶水帮助奶酪粘在披萨上"。去年,一名营养师因听从ChatGPT建议将食盐替换为溴化钠而住院治疗。
如今,人工智能公司已开始为消费者和医疗专业人员推出医疗专用聊天机器人。本月,OpenAI宣布推出ChatGPT Health,允许普通用户连接医疗记录和健康数据,从而获得更精准的健康咨询回复。该公司还发布了已在全美医院启用的ChatGPT for Healthcare服务。Anthropic也推出了专为医生设计的Claude for Healthcare聊天机器人,旨在协助日常任务如调取病历并改善患者与医疗机构的沟通。
这些医疗专用聊天机器人为何优于普通聊天机器人?
"谈及专为医疗设计的系统,它必须经过医疗数据训练,"宾夕法尼亚大学研究人工智能的精神病学副教授托瑞·克里德表示,"这意味着聊天机器人不应从社交媒体等不可靠来源获取信息。"她指出第二个关键差异在于确保用户隐私数据不被出售或用于模型训练——医疗领域聊天机器人必须符合HIPAA(健康保险流通与责任法案)规范。面向消费者的症状咨询机器人仅用于信息整合,而消费者数据保护取决于严格的隐私设置。
笔者采访了宾夕法尼亚大学医疗保健转型与创新中心主任雷娜·梅瑟,探讨患者在AI医疗新环境中需知事项及医生实际应用情况。梅瑟认为人工智能潜力巨大,但现阶段需谨慎使用。
当前医疗系统如何应用这些聊天机器人和人工智能?
"这是令人振奋的领域。宾大推出的Chart Hero项目,相当于将ChatGPT嵌入患者健康档案。作为AI助手,它能根据我的具体提问查找病历信息、计算风险评分或提供指导。由于完全集成,我无需查阅分散资料。"
"使用后,我能投入更多时间与患者深入交流,建立更紧密的人际联系——因为减少了病历检索和信息整合的时间。这真正改变了工作方式。"
"在环境感知领域,AI可在患者授权后监听诊疗过程并生成记录。消息界面应用也很广泛:我们设有患者随时提问的端口,AI会辅助识别解决方案,但始终保留人工审核环节以确保信息准确。"
"人工审核环节"具体如何运作?
"许多医院聊天机器人刻意设置人工监督。看似自动化的服务往往有幕后人员支持,人类介入确保了制衡机制。"
面向消费者的ChatGPT Health类产品无需人工介入,用户可独自咨询健康问题。您建议患者如何使用?有何限制?
"我将AI聊天机器人视为工具而非临床医生。其目标是简化医疗获取流程,擅长提供指导但不擅判断。它能帮助理解后续步骤,但不应用于医疗决策。"
"我特别推荐用它梳理就医问题。就诊时人们常伴随情绪波动,若能提前准备问题清单将更从容。"
假设我有低烧,向ChatGPT Health咨询处理方案是否明智?
"当你需要做决策时,就该咨询医师。我认为聊天机器人作为理解后续步骤的工具很有价值,但不适用于决策环节。"
这些新型医疗聊天机器人诊断疾病的可靠性如何?
"它们拥有海量信息,对患者和临床医生都具参考价值。但目前我们尚不清楚何时会产生幻觉,或何时偏离诊疗指南。"
这意味着无法判断机器人何时在编造信息?
"我给患者的建议是:核查信息一致性、通过可信来源验证、相信直觉。若某信息听起来好得不真实,对机器人提供的信息应保持谨慎。"
患者应使用哪些来源验证AI信息?
"我依赖美国心脏协会等权威机构的指南。当产生'能否信任聊天机器人'的疑问时,正是与医疗专业人员协作的契机。"
患者输入医疗聊天机器人的数据是否安全?
"建议患者勿分享姓名、地址、病历号或处方ID等个人细节,因其并非专为保护患者信息设计的环境——就像我不会在随机网站输入社保号码。"
医院提供的聊天机器人是否同样存在风险?
"若医院明确透明地说明信息用途并保障健康信息安全,我愿在该环境输入信息。但对于数据所有权和用途不透明的平台,绝不分享个人细节。"
【全文结束】

