人工智能与医疗决策:匹兹堡医生警告"ChatGPT无法听诊你的心脏"Artificial intelligence and making medical decisions, one Pittsburgh doctor warns "ChatGPT can't listen to your heart." - CBS Pittsburgh

环球医讯 / AI与医疗健康来源:www.cbsnews.com美国 - 英语2025-10-13 00:54:35 - 阅读时长2分钟 - 763字
匹兹堡AHN信息技术总监詹姆斯·索拉瓦博士警告公众切勿依赖ChatGPT等人工智能工具进行医疗决策,强调这些大型语言模型常会产生错误信息,尤其在处理胸痛、呼吸急促或中风症状等危急情况时。他指出医学决策关乎生死,时间就是生命,患者应立即寻求专业医疗帮助而非浪费时间在AI诊断上,因为人工智能无法进行听诊、触诊等必要检查,也不能像经验丰富的医生那样提出恰当的后续问题,医疗健康问题绝不能抱有侥幸心理。
健康人工智能医疗决策ChatGPT互联网查询病症错误信息医生诊断自我治疗
人工智能与医疗决策:匹兹堡医生警告"ChatGPT无法听诊你的心脏"

当身体不适时上网查询已成为常态;人们会搜索谷歌或访问WebMD网站来了解自身状况。

如今,人工智能将这种做法提升到了新高度,但也带来了潜在危险。

我们都同意,健康问题不容侥幸,因此请记住,像ChatGPT这样的工具是人工智能,而非医生。

不过,如今医生们对患者通过互联网查询病症已不感到惊讶。

"你知道,[他们]对自己的症状有些焦虑或紧张,而且操作起来非常快捷方便,所以我们都这样做,"AHN信息技术总监詹姆斯·索拉瓦博士表示,"你应该相信ChatGPT给出的结果吗?不,绝不,你总是需要验证这些信息。"

索拉瓦博士解释道,ChatGPT和其他大型语言模型经常会产生"幻觉"——它们生成的内容并非总是正确,尤其是当你出现胸痛、呼吸急促、言语含糊或其他中风症状时。

"在医学领域,这可能关乎生死,"他说,"时间至关重要,分秒必争,你必须在特定时间内找到医疗提供者来处理问题,才能获得最佳治疗效果。你不应该浪费时间,在ChatGPT、谷歌或WebMD上查找这类信息。"

索拉瓦博士指出,ChatGPT不仅可能给出错误信息,而且它旨在取悦用户,会告诉你想听的内容。

"ChatGPT无法听诊你的心脏,也无法听诊你的肺部或触摸你的腹部来了解你的真实状况,"他说。与医生面对面交流是人工智能无法复制的体验。

"它不具备追问问题的能力,可能也无法提出正确的后续问题,而这才真正体现了医学艺术和多年经验的价值,"索拉瓦博士说。

总之,对于小问题可以使用这些工具,但不要依赖它们来指导自我治疗,因为它们可能会出错。

当索拉瓦博士说这是关乎生死的问题时,他既不是开玩笑,也不是在夸大其词。

【全文结束】

大健康

猜你喜欢

  • 俄克拉荷马州力争引领全国阿尔茨海默病研究与治疗工作 突出进展及个人影响俄克拉荷马州力争引领全国阿尔茨海默病研究与治疗工作 突出进展及个人影响
  • 成本与获取障碍限制女性使用心脏监测器:药学博士 Lindsey Valenzuela成本与获取障碍限制女性使用心脏监测器:药学博士 Lindsey Valenzuela
  • 新研究发现或可预防儿童花生过敏新研究发现或可预防儿童花生过敏
  • 新研究揭示新冠症状持续影响数百万人 两年后嗅觉问题仍普遍存在新研究揭示新冠症状持续影响数百万人 两年后嗅觉问题仍普遍存在
  • 科学家因免疫系统关键发现荣获医学奖项科学家因免疫系统关键发现荣获医学奖项
  • 卢旺达提升临床研究能力亟需解决的结构性障碍卢旺达提升临床研究能力亟需解决的结构性障碍
  • 人工智能与肠道细菌助力结直肠癌检测人工智能与肠道细菌助力结直肠癌检测
  • 研究发现这种痴呆症药物可能增加中风风险研究发现这种痴呆症药物可能增加中风风险
  • 心血管健康研究最新进展简报:便秘关联疾病风险、Lp(a)检测现状及人工智能诊断案例心血管健康研究最新进展简报:便秘关联疾病风险、Lp(a)检测现状及人工智能诊断案例
  • 尼日利亚多数草药安全但无效——尼日利亚医学研究所报告尼日利亚多数草药安全但无效——尼日利亚医学研究所报告
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康