一项基于微软Bing AI驱动的Copilot的新研究揭示了在使用该工具获取医疗信息时需谨慎。研究结果发表在Scimex上,显示许多聊天机器人的回答需要高级教育才能完全理解,近40%的建议与科学共识相冲突。令人担忧的是,近四分之一的答案被认为可能造成严重伤害,甚至死亡。
关于美国最常用的50种药物的问题
研究人员用10个最常见的患者问题查询了Microsoft Copilot,这些问题涉及2020年美国门诊市场上最常用的50种药物。这些问题是关于药物的适应症、作用机制、使用说明、潜在不良反应和禁忌症。
他们使用Flesch阅读易读性评分来估计理解特定文本所需的教育水平。评分在0到30之间表示非常难读的文本,需要大学学历。相反,评分在91到100之间表示非常容易读的文本,适合11岁的孩子。研究中报告的整体平均评分为37,这意味着大多数聊天机器人的回答难以阅读。即使是可读性最高的聊天机器人回答仍需要高中或中学教育水平。
此外,专家们确定:
- 54%的聊天机器人回答与科学共识一致,而39%的回答与科学共识相矛盾。
- 42%的回答被认为会导致中度或轻度伤害。
- 36%的回答被认为不会导致伤害。
- 22%的回答被认为会导致严重伤害或死亡。
AI在医疗行业的应用
人工智能已经应用于医疗行业一段时间,提供了各种应用以改善患者结果和优化医疗操作。AI在医学图像分析中发挥了关键作用,有助于疾病的早期检测或加速复杂图像的解读。它还通过处理大量数据帮助识别新的药物候选物。此外,AI支持医护人员减轻医院的工作负担。
在家中,AI驱动的虚拟助手可以协助患者完成日常任务,如药物提醒、预约安排和症状跟踪。使用搜索引擎获取健康信息,尤其是关于药物的信息,非常普遍。然而,AI驱动的聊天机器人在这一领域的集成仍在很大程度上未被探索。
比利时和德国研究人员在《BMJ质量与安全》杂志上发表的另一项研究,探讨了AI驱动的聊天机器人在健康相关查询中的应用。研究人员使用微软Bing AI Copilot进行研究,指出“AI驱动的聊天机器人能够提供总体完整和准确的患者药物信息。然而,专家认为相当数量的回答不正确或可能有害。”
咨询医疗专业人员以获取医疗建议
Scimex研究的作者指出,他们的评估不涉及真实的患者体验,且不同语言或不同国家的提示可能会影响聊天机器人的回答质量。他们还指出,研究表明搜索引擎和AI驱动的聊天机器人可以为患者关于药物治疗的常见问题提供准确答案。然而,这些答案通常很复杂,反复提供可能有害的信息可能会危及患者和药物的安全。他们强调患者应咨询医疗专业人员,因为聊天机器人的回答可能并非总是准确无误。
(全文结束)

