弗林特医生警告慎用人工智能工具进行健康自诊Flint doctor warns against self-diagnosing health with AI tools | News | abc12.com

环球医讯 / AI与医疗健康来源:www.abc12.com美国 - 英语2026-02-01 03:07:16 - 阅读时长2分钟 - 758字
密歇根州弗林特赫勒医疗中心首席医疗信息官罗伯克博士发出严肃警告,指出人工智能工具在健康自诊中存在系统性风险:其信息来源混杂导致错误、过时或不完整内容泛滥,且无法获取患者病史或进行身体检查,既可能引发不必要的焦虑(如过度呈现严重诊断),也可能造成虚假安心而延误治疗;他强调AI仅应作为症状初步查询的辅助起点,必须结合专业医生的综合评估,公众应坚决避免将其替代正规医疗诊断以保障健康安全。
健康自诊人工智能工具弗林特医生迈克尔·罗伯克警告慎用医疗建议自我诊断虚假安心延误就医过度恐慌专业医疗
弗林特医生警告慎用人工智能工具进行健康自诊

弗林特赫勒医疗中心的迈克尔·罗伯克博士敦促公众在使用人工智能工具进行健康自诊时保持高度警惕。

密歇根州弗林特(WJRT)报道——人工智能正日益成为人们自诊健康问题的常用工具,但当地弗林特医生已发出明确警告。

迈克尔·罗伯克博士担任弗林特赫勒医疗中心首席医疗信息官。他指出,人工智能正加入搜索引擎和医疗网站的行列,而医生一贯反对依赖此类工具进行自我诊断。

"患者可能会说:'所以您不认为我有脑瘤吧?'这时我往往会惊讶地追问:'脑瘤这个想法从何而来?'随后他们才会坦白:'我问了谷歌或人工智能,结果它把脑瘤列在诊断清单上,'"罗伯克解释道。

罗伯克着重强调了信任人工智能程序信息的潜在危险,尤其因为许多AI系统不加甄别地从互联网抓取数据。

"网络上错误信息的数量与过时或不完整信息相当,"罗伯克表示。人工智能缺乏掌握患者病史或实施身体检查的关键能力,而这两点对准确诊断至关重要。

该医生指出,部分人工智能医疗建议会导致非理性的焦虑或过度宽慰。

"患者可能因AI判断病情不严重而产生虚假安心感,进而延误就医;另一方面,它也可能通过过度渲染诊断结果引发不必要的恐慌,给出本无需担忧的病症结论,"罗伯克分析道。

罗伯克同时说明,虽然公众对自身健康的关注合情合理,且人工智能可作为辅助工具,但绝不能取代专业医疗建议。

"在决定花半天时间前往急诊室接受评估前,人们先自行查询是合理的,"他补充道。"若对特定症状存疑,AI可作为初步参考起点。但最关键的是将查询结果带给医生,与医疗专业人员就症状展开深入讨论,这才是人工智能工具最科学的应用方式。"

罗伯克最终呼吁民众始终以医疗专业人员作为获取精准健康信息的首要渠道。

【全文结束】

猜你喜欢
  • 亚马逊One Medical推出面向患者的健康AI助手亚马逊One Medical推出面向患者的健康AI助手
  • 人工智能能否帮助加州无家可归者改善健康人工智能能否帮助加州无家可归者改善健康
  • ChatGPT健康服务:个性化信息与潜在风险ChatGPT健康服务:个性化信息与潜在风险
  • 盖茨基金会与OpenAI推动健康诊所采用人工智能盖茨基金会与OpenAI推动健康诊所采用人工智能
  • 迄今为止,AI在医疗保健领域的真正革命在于文书工作(患者也从中受益)迄今为止,AI在医疗保健领域的真正革命在于文书工作(患者也从中受益)
  • 麻省理工学院研究:人们更信任人工智能而非医生提供的医疗建议麻省理工学院研究:人们更信任人工智能而非医生提供的医疗建议
  • 构建人工智能融合医疗生态系统:SWOT分析构建人工智能融合医疗生态系统:SWOT分析
  • 医疗AI的信任挑战及突破之道医疗AI的信任挑战及突破之道
  • '强化版谷歌医生':ChatGPT Health暴露医疗健康领域的危险缺口'强化版谷歌医生':ChatGPT Health暴露医疗健康领域的危险缺口
  • 研究显示:尽管AI提供虚假医疗信息,人类仍更青睐AI医疗建议研究显示:尽管AI提供虚假医疗信息,人类仍更青睐AI医疗建议
热点资讯
全站热点
全站热文