AI的医疗诊断技能仍需检查AI's Medical Diagnostic Skills Still Need Check-up

环球医讯 / AI与医疗健康来源:www.miragenews.com加拿大 - 英语2025-05-22 20:00:00 - 阅读时长3分钟 - 1006字
研究人员发现,尽管大型语言模型(如ChatGPT)在不断改进,但其在医疗诊断方面的准确性仍然不足,存在误导用户的风险。建议用户不要盲目依赖这些工具进行自我诊断,而应寻求专业医疗人员的帮助。
健康人工智能医疗诊断ChatGPT自我诊断误导风险医疗建议人类医疗服务提供者
AI的医疗诊断技能仍需检查

你可能需要三思而后行,不要使用像ChatGPT这样强大的人工智能程序来自我诊断健康问题。

滑铁卢大学的研究团队在一个模拟研究中发现,由OpenAI创建的知名大型语言模型(LLM)ChatGPT-4o在回答开放式诊断问题时,错误率接近三分之二。

“人们应该非常谨慎,”滑铁卢大学的博士生Troy Zada说。“LLMs确实在不断改进,但现在仍然存在很高的误导风险。”

该研究使用了近100个来自多选题医学执照考试的问题。这些问题被修改为开放式问题,类似于真实用户可能会向ChatGPT询问的症状和担忧。

评估这些回答的医学生发现,只有37%的回答是正确的。无论事实是否正确,大约三分之二的回答都被专家和非专家评估者认为不清楚。

其中一个问题是关于一个手腕和手上长疹子的男人。据说这个男人每个周末都在农场工作,学习殡葬科学,饲养信鸽,并且为了省钱使用新的洗衣粉。

ChatGPT错误地认为最可能的原因是由新洗衣粉引起的皮肤炎症。正确的诊断是什么?他的疹子是由他在殡葬科学课程中佩戴的乳胶手套引起的。

“对于人们来说,意识到LLMs可能存在误导是非常重要的,”Zada说,他在这篇论文中由滑铁卢大学管理科学与工程助理教授Sirisha Rambhatla监督。

“危险在于,试图自我诊断的人会得到令人安心的消息并忽视严重问题,或者被告知情况非常糟糕,但实际上并不值得担心。”

尽管该模型没有出现任何特别或荒谬的错误——并且比研究人员测试的ChatGPT早期版本表现得更好——但研究得出结论,LLMs目前还不足以依赖它们提供任何医疗建议。

“细微的不准确尤其令人担忧,”滑铁卢大学Critical ML实验室主任Rambhatla补充道。“明显的错误很容易识别,但细微之处对于准确诊断至关重要。”

尚不清楚有多少加拿大人转向LLMs来帮助进行医疗诊断,但最近的一项研究发现,十分之一的澳大利亚人使用ChatGPT来帮助诊断他们的医疗状况。

“如果你使用LLMs进行自我诊断,正如我们怀疑越来越多的人正在这样做,不要盲目接受结果,”Zada说。“去看人类医疗服务提供者仍然是理想的选择。”

该研究团队还包括多伦多大学和多伦多圣迈克尔医院的法律和精神病学研究人员。

该研究《AI辅助自我诊断中的医疗误导:分析大型语言模型的方法(EvalPrompt)》发表在JMIR Formative Research上。


(全文结束)

大健康

猜你喜欢

  • 夏威夷健康报告揭示五大令人担忧的发现夏威夷健康报告揭示五大令人担忧的发现
  • 口贴睡眠趋势:科学家警告其潜在健康风险口贴睡眠趋势:科学家警告其潜在健康风险
  • 加强对抗“超级细菌”的斗争,因某些细菌的耐药性增强加强对抗“超级细菌”的斗争,因某些细菌的耐药性增强
  • 神经逻辑卡推出多模态AI平台科珀尼卡,实现情感智能神经逻辑卡推出多模态AI平台科珀尼卡,实现情感智能
  • 在医疗领域构建可信赖的人工智能:公平性和问责制不再是可选项在医疗领域构建可信赖的人工智能:公平性和问责制不再是可选项
  • Mercy如何在企业范围内推进人工智能Mercy如何在企业范围内推进人工智能
  • REDCap革命:如何通过临床数据管理工具赋能全球研究社区REDCap革命:如何通过临床数据管理工具赋能全球研究社区
  • 纳米材料与免疫系统功能障碍:揭示全身炎症级联反应及其对人类健康的影响纳米材料与免疫系统功能障碍:揭示全身炎症级联反应及其对人类健康的影响
  • 尼日利亚社会保障信托基金倡导在工作场所安全中整合人工智能和数字化尼日利亚社会保障信托基金倡导在工作场所安全中整合人工智能和数字化
  • 专利审判和上诉委员会驳回AI驱动的医疗专利——并非因为新颖性,而是因为资格问题专利审判和上诉委员会驳回AI驱动的医疗专利——并非因为新颖性,而是因为资格问题
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康