越来越多的女性转向ChatGPT寻求医疗建议,但这是否是一个危险的陷阱?More Women Are Turning To ChatGPT For Medical Advice But Is It A Dangerous Rabbit Hole?

环球医讯 / AI与医疗健康来源:www.marieclaire.com.au澳大利亚 - 英语2025-05-01 11:00:00 - 阅读时长5分钟 - 2018字
随着越来越多的女性转向ChatGPT寻求医疗建议,专家们对这种趋势持不同意见。虽然ChatGPT在某些方面表现出色,但其信息的准确性和可靠性仍存在争议。本文探讨了这一现象背后的原因以及可能带来的风险。
女性健康医疗建议ChatGPT肠扭转肠套叠医疗系统困境医疗不平等AI医疗革命诊断准确率性别偏见
越来越多的女性转向ChatGPT寻求医疗建议,但这是否是一个危险的陷阱?

当Flic Manning在40岁生日前几个月发现腹部出现硬块时,她意识到事情严重不对劲。起初只是偶尔的疼痛和腹胀,后来变得越来越频繁,并且她开始难以进食。

作为一位作家和广播主持人,Manning已经管理克罗恩病长达二十年,她习惯了胃肠道症状,但这次感觉不同。她的家庭医生告诉她这可能是克罗恩病的症状,但为了安全起见,还是将她转介给了胃肠科医生。然而,这位专科医生并没有认真对待她的担忧。“他甚至没有碰我的腹部,”Manning说,“他说没什么好担心的。”

尽管如此,Manning仍然感到担忧,于是她转向了ChatGPT。ChatGPT建议她可能患有肠扭转和肠套叠——这两种情况都可能危及生命。出于担忧,Manning又去找了妇科医生进行第三次咨询。

“妇科医生一摸到那个硬块就非常担心,”Manning说,“她说我需要立即做CT扫描。”果然,扫描结果证实了ChatGPT的诊断。Manning确实患有肠套叠和肠扭转,需要进行多次手术。

“ChatGPT甚至告诉我最可能的治疗方案,结果也证明是对的,”Manning说。她是全球4亿每周使用ChatGPT的用户之一。自2022年推出以来,ChatGPT被广泛用于撰写邮件、创建演示文稿、简历和信件。但它也回答问题、编译研究资料并创作艺术作品——越来越多的人依赖它来获取医疗建议。

这并不令人惊讶;毕竟,我们几十年来一直在使用谷歌搜索医疗信息。不同的是,像ChatGPT这样的AI模型提供的体验更接近于从一个关心你的医生那里获得的建议,包括同情的前言(“我很抱歉你感觉不舒服”)和建议的解决方案——尽管你可能会看到免责声明:“我不是医生,不能提供医疗建议。”

人们在线寻求即时医疗建议有很多原因,包括看家庭医生的延迟、就诊费用的增加(过去一年上涨了4%以上)、越来越少的全科医生愿意批量结算,以及专科医生的多年等待名单。

生活成本飙升、人口老龄化和慢性病发病率上升使本已紧张的医疗系统不堪重负。此外,全职全科医生的严重短缺预计到2033年将翻倍,调查显示超过70%的全科医生正在经历职业倦怠。

再加上女性在医疗不平等方面承受的重担——从医疗误导到资金不足的研究——在家打开一个新的Chrome窗口似乎很有吸引力。

“在全球范围内,女性比男性多花费25%的生命处于不良健康状态,”Ovum AI的创始人兼首席执行官Ariella Heffernan-Marks博士表示,她认为AI是解决女性面临诊断和治疗差距的一种有希望的方法。

“任何澳大利亚女性平均需要五年才能被诊断出一般疾病,而子宫内膜异位症则需要七到十二年。女性前来就医时说‘我有剧烈的疼痛’,却被告知‘你只是焦虑,太情绪化了’。除此之外,女性还面临着性别工资差距,因此她们需要更频繁地看医生,但却负担不起。”

那么,我们是在走向一场AI医疗革命,还是掉进了一个危险的陷阱?专家们对此意见不一:有人认为两者都有,也有人认为现在下结论还为时过早。

好消息是,与谷歌搜索相比,ChatGPT表现得像一个出色的年轻医生。根据哈佛大学研究人员的研究,ChatGPT通过了美国医学执照考试。另一项研究发现,它的诊断准确率高达92%。然而,在解读MRI时,ChatGPT有时表现不如放射科医生,在制定癌症治疗方案时,三分之一的方案包含错误。

ChatGPT呈现的信息也有问题。乍一看,这些信息听起来不错,但仔细一看,往往是一堆废话。墨尔本大学副教授Piers Howe博士表示,AI“经常产生胡言乱语,但它表达得非常好,看起来很可信,这才是真正的危险”。

这也让墨尔本大学的副教授、《人工智能:利弊》编辑Grant Blashki博士感到担忧。他对AI改善患者体验的潜力感到兴奋,但也强调需要始终与医生核实。“患者可能会对AI的建议过于自信,从而延误就医,”他说。

不幸的是,AI也在延续传统医疗中女性面临的性别偏见。“它评估的是全球数据集,通常包含性别偏见,因此它提供的反应要么带有性别偏见,要么带有文化偏见,”Heffernan-Marks说。

但在医生手中,AI确实产生了积极的影响,可以潜在地简化诊断、治疗、测试和行政工作。一项英国研究发现,五分之一的医生已经在使用AI进行行政工作或帮助诊断。

“采用的速度非常惊人,”Blashki说,他使用AI来增强护理,而不是取代护理,“但医生需要记住,最终责任在于他们。”

Heffernan-Marks对AI的局限性持现实态度。“AI不是诊断工具,应该用来帮助你收集和理解信息,”她说。但对于那些被忽视的女性来说,AI提供了一个有价值的东西:“一个非评判性的空间”,让她们可以准备为自己辩护。

在我们的医疗系统陷入困境的情况下,也许AI可以缓解一些问题,而不是彻底解决它们。正如机器人本身警告的那样,用户需谨慎。就像任何技术一样,风险不在于机器本身,而在于我们如何使用它。


(全文结束)

大健康

猜你喜欢

  • 降低筛查年龄需要更个性化的肠癌监测降低筛查年龄需要更个性化的肠癌监测
  • 重塑手术:研究所揭幕SuPER,领先的外科机器人和人工智能研究中心重塑手术:研究所揭幕SuPER,领先的外科机器人和人工智能研究中心
  • Humata Health助力实现首个无接触预授权——从下单到批准Humata Health助力实现首个无接触预授权——从下单到批准
  • 成人痤疮患者更容易患上饮食失调症成人痤疮患者更容易患上饮食失调症
  • 每位医疗领导者都应遵循的三大原则每位医疗领导者都应遵循的三大原则
  • 注册营养师警告不要饮用的“健康但有害”果汁注册营养师警告不要饮用的“健康但有害”果汁
  • 专家解释为何高温会导致腹泻及应避免的常见食物专家解释为何高温会导致腹泻及应避免的常见食物
  • 打破“智力瓶颈”:AI如何在医疗保健领域计算以前无法计算的内容打破“智力瓶颈”:AI如何在医疗保健领域计算以前无法计算的内容
  • 医疗记录错误“危及患者安全”——专家警告医疗记录错误“危及患者安全”——专家警告
  • 六大科技巨头与医疗系统的合作六大科技巨头与医疗系统的合作
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康