一项研究警告称,基于人工智能(AI)的搜索引擎和聊天机器人可能无法始终提供准确和安全的药物信息,患者不应依赖这些工具。来自比利时和德国的研究人员在发现许多答案错误或潜在有害后进行了这项研究。该研究发表在《BMJ Quality and Safety》期刊上,他们表示,AI聊天机器人提供的答案复杂度较高,可能需要大学水平的教育才能理解。
2023年,随着AI聊天机器人的引入,搜索引擎经历了重大转变。更新后的版本提供了增强的搜索结果、全面的答案和新的互动体验。尽管这些聊天机器人——经过大量互联网数据集的训练——可以回答任何与医疗保健相关的问题,但它们也能够生成错误信息、无意义或有害的内容,德国埃尔兰根-纽伦堡大学的研究团队指出。
在这项横断面研究中,研究人员观察到,带有AI聊天机器人的搜索引擎总体上能提供完整和准确的回答来解答患者的问题。然而,聊天机器人的答案大多难以阅读,且反复缺乏信息或存在不准确之处,可能威胁患者和药物的安全。为了进行这项研究,研究人员探讨了聊天机器人对2020年美国最常开具的前50种药物查询的可读性、完整性和准确性。他们使用了带有AI聊天机器人功能的搜索引擎Bing Copilot。
在10个问题中,只有半数问题得到了最高完整性的回答。进一步的分析显示,26%的答案与参考数据不符,超过3%的答案完全不一致。约42%的聊天机器人答案被认为可能导致中度或轻度伤害,22%的答案可能导致死亡或严重伤害。研究团队指出,一个主要缺点是聊天机器人无法理解患者问题的潜在意图。
“尽管有潜力,患者仍需咨询医疗专业人员,因为聊天机器人可能无法始终生成无误的信息,”研究人员表示。
参考文献:Andrikyan W, Sametinger SM, Kosfeld F, et al. Artificial intelligence-powered chatbots in search engines: a cross-sectional study on the quality and risks of drug information for patients. BMJ Quality & Safety. Published Online First: 01 October 2024. doi: 10.1136/bmjqs-2024-017476
(全文结束)

