当身体不适时上网查询已成为普遍现象;人们常会搜索谷歌或访问WebMD来了解自身状况。
如今,人工智能将这种做法提升到了新高度,但也带来了潜在危险。
我们都认同健康不容侥幸,因此必须牢记:ChatGPT等工具属于人工智能,并非专业医生。
尽管如此,医生们对患者上网查询症状已习以为常。
“人们往往对症状感到些许焦虑或紧张,操作既快捷又简便,所以我们都会这么做,”阿勒格尼卫生网络信息技术医疗主任詹姆斯·索拉瓦博士表示,“但你是否该信任ChatGPT的结论?绝不,永远不要,你必须验证所有信息。”
索拉瓦博士解释道,ChatGPT及其他大型语言模型常会“产生幻觉”——即生成内容,而这些内容未必准确,尤其当患者出现胸痛、呼吸急促、言语不清或其他中风症状时。
“在医学领域,这可能是生死攸关的问题,”他强调,“时间极其关键,你必须在黄金时段内就医才能获得最佳治疗效果。切勿在ChatGPT、谷歌或WebMD上浪费时间查找这类紧急信息。”
索拉瓦博士指出,不仅信息可能出错,更要谨记ChatGPT旨在取悦用户,会提供你期望听到的答案。
“ChatGPT无法听诊你的心脏,也无法听诊肺部或触摸腹部来判断真实状况,”他说道。
与医生面对面交流是人工智能无法复制的核心环节。
“它不具备提出后续问题的能力,更无法精准追问关键问题,而这正是医学艺术与多年临床经验的价值所在,”索拉瓦博士补充道。
总之,仅建议将人工智能用于处理轻微问题,切勿依赖其指导自我治疗,因其错误可能导致严重后果。
当索拉瓦博士称这是生死攸关的问题时,他既非戏言,也非夸大其词。
【全文结束】

