康涅狄格州医疗专家指出,ChatGPT Health平台在为寻求医疗建议的患者带来希望的同时也潜藏风险。据Axios近期报道,全球每天约有4000万人通过ChatGPT咨询健康问题,内容涵盖医疗账单解读、自我诊断及健康管理等,这些询问均在开放平台上进行。
为加强隐私保护,OpenAI于1月初推出ChatGPT Health专用平台,该平台由260名医生参与研发,与标准版ChatGPT分离运作。用户可上传医疗记录和健康应用数据,使聊天机器人能更精准地回应个性化健康咨询。OpenAI声明新平台增设多重保护与加密措施保障对话隐私,且所有交流内容不用于训练基础模型。
耶鲁纽黑文医疗集团数字健康高级副总裁李·施瓦姆博士表示:"这本质上是种工具,虽与以往工具不同,但可被明智使用。它既能安全规范地应用,也可能带来无约束的创新——我们将加速前进,但途中难免出现伤亡。"他指出,该平台可解答基础医疗问题,如列举潜在症状、预测就诊结果,或把诊断报告转化为通俗语言,但需警惕其运作原理:生成式AI本质是基于互联网海量数据的概率系统,错误答案常以权威口吻呈现,真假难辨。
施瓦姆强调关键问题在于"情境缺失":"有时必须了解患者才能正确回答问题,因为需要理解患者提问的深层原因。"相较之下,谷歌作为"巨大的医疗民主化推手"仅提供相关链接列表,而ChatGPT Health生成的定制化预测往往显得确凿可信。当建议出错时可能引发严重后果,目前OpenAI已面临多起诉讼,包括格林威治一名女子被其子杀害案,家属指控聊天机器人加剧了凶手的妄想思维。
哈特福德医疗保健集团首席临床创新官巴里·斯坦博士通过邮件表示:"患者渴望全天候获取健康信息,ChatGPT类应用便捷易用、随时响应,能提供符合理解水平的反馈。"但他与施瓦姆共同警示:平台信息看似可信却可能失准,"务必谨慎并咨询您的医疗服务提供者"。
施瓦姆预测,随着ChatGPT Health推出,更多患者将携带聊天记录打印件就诊。部分医生会接纳这些见解,另一些则视为挑战。"医疗体系无法随时响应需求,预约时间又有限,我们确实需要帮手——应让AI处理无需人工干预的低阶问题,但确保患者必要时能转接真人诊疗。"斯坦观察到康州患者借助ChatGPT信息就诊的比例正"指数级增长",医院鼓励患者提前通过AI获取知识,"这使医患互动更深入高效"。
目前康涅狄格州多家医疗机构已应用AI自动化行政任务,甚至作为第二双眼睛辅助乳腺X光片异常检测。耶鲁大学实施的AI系统能实时转录诊疗对话,让医生专注问诊而非记录,"为医疗实践重拾许多乐趣"。但施瓦姆指出,临床应用多采用"人工监督"模式,完全自主的生成式AI需明确使用边界。当AI错误导致患者伤亡时,医疗责任认定仍是未解难题,"AI不会取代医生,但能接管那些医生未必擅长或及时处理的任务"。
两位专家最终建议:施瓦姆强调"谨慎前行",提醒用户注意数字时代隐私定义的模糊性,"需谨记这不是就医过程";斯坦补充应利用ChatGPT Health保持信息更新,"若发现信息模糊或矛盾,立即联系医疗服务提供者——任何健康决策前务必经临床医生确认"。
【全文结束】

