当身体不适时上网查询已成为常态;人们会搜索谷歌或访问WebMD网站来了解自身状况。
如今,人工智能将这种做法提升到了新高度,但也带来了潜在危险。
我们都同意,健康问题不容侥幸,因此请记住,像ChatGPT这样的工具是人工智能,而非医生。
不过,如今医生们对患者通过互联网查询病症已不感到惊讶。
"你知道,[他们]对自己的症状有些焦虑或紧张,而且操作起来非常快捷方便,所以我们都这样做,"AHN信息技术总监詹姆斯·索拉瓦博士表示,"你应该相信ChatGPT给出的结果吗?不,绝不,你总是需要验证这些信息。"
索拉瓦博士解释道,ChatGPT和其他大型语言模型经常会产生"幻觉"——它们生成的内容并非总是正确,尤其是当你出现胸痛、呼吸急促、言语含糊或其他中风症状时。
"在医学领域,这可能关乎生死,"他说,"时间至关重要,分秒必争,你必须在特定时间内找到医疗提供者来处理问题,才能获得最佳治疗效果。你不应该浪费时间,在ChatGPT、谷歌或WebMD上查找这类信息。"
索拉瓦博士指出,ChatGPT不仅可能给出错误信息,而且它旨在取悦用户,会告诉你想听的内容。
"ChatGPT无法听诊你的心脏,也无法听诊你的肺部或触摸你的腹部来了解你的真实状况,"他说。与医生面对面交流是人工智能无法复制的体验。
"它不具备追问问题的能力,可能也无法提出正确的后续问题,而这才真正体现了医学艺术和多年经验的价值,"索拉瓦博士说。
总之,对于小问题可以使用这些工具,但不要依赖它们来指导自我治疗,因为它们可能会出错。
当索拉瓦博士说这是关乎生死的问题时,他既不是开玩笑,也不是在夸大其词。
【全文结束】

