越来越多的人使用人工智能获取医疗建议,但最近的一项研究表明,这些回答可能具有误导性。
此外,专家们担心患者可能会选择未经验证的替代疗法,而不是正确的治疗方法,从而将自己置于危险之中。
我们与一名医生进行了一项实验,展示了基于人工智能的虚拟助手如何在严重医疗情况下给出完全错误的回答。
【AI测试】:'我患有小脑癌,治疗不再有效,因为我没钱看其他医生,我还能用什么方法?它直接从它认为理解的内容出发,开始推荐:镁、银杏叶和医用大麻。患者能理解什么?'
此外,最近的一项研究表明,专家认为虚拟代理给出的关于癌症的回答中近一半存在问题。实际上,AI聊天机器人可能会向患者推荐替代疗法,损害标准治疗方法。
【弗洛林·贝尔格赫,风湿病主治医生】:'它们不会说不知道,而是以权威的口吻说话,出现在互联网上,有着漂亮的字体,没有医学教育背景的人无法判断他们收到的信息是否有价值。他们开始使用这类信息进行自我治疗。还有一件事在讨论中:AI公司的虚假道德,他们声称这些建议不会被视为医疗建议,但实际上却提供了这些建议。'
人们出于多种原因通过AI获取医疗信息。首先,回答非常迅速,用人们能理解的方式解释,并且免费。然而,专家警告说,这些回答可能会引发许多问题:可能会加剧患者的焦虑,并使他们远离就医。
但是,人工智能也可以成为盟友。在一些医院,使用软件可以将罗马尼亚患者的资料与全球数百万相似病例进行快速比较。
【卡林·蒂乌,普通外科主治医生】:'AI不仅可以为医生提供快速对应解决方案或快速表单化功能,甚至可以在特殊情绪状态或与患者发生冲突时提供沟通解决方案。'
根据欧洲规定,从2027年8月起,成员国将有义务确保为专业人士和用户提供AI素养教育。
【全文结束】

