韦雷德·施瓦茨表示,人工智能生成回复的人类化语气与其自信的表达方式极易让用户相信信息可信,即使内容不准确。
新研究表明,人工智能在提供医疗建议方面极具说服力,专家指出我们对它的信任正在挤占患者与真实医生宝贵的诊疗时间。
不列颠哥伦比亚大学研究人员开展的这项研究发现,大语言模型(如ChatGPT)不仅提供医疗信息,其交流过程往往比真人更令人信服且体验更佳。
“与大语言模型的对话比与真人对话更具说服力,”不列颠哥伦比亚大学计算机科学系助理教授、著作《迷失在自动翻译中》的作者韦雷德·施瓦茨博士表示,“它们还被认为更具共情能力。”
施瓦茨指出,人工智能生成回复的人类化语气搭配自信的表达方式,极易让用户相信信息可信,即使内容不准确。
“当回复以如此权威的方式撰写,且能回答你提出的所有问题时,你自然会认为它懂得自己在说什么,”施瓦茨说。
医生们表示正亲历其影响。患者就诊时越来越频繁地已自行决定诊疗方案,常引用人工智能工具给出的诊断或治疗建议——这些建议有时存在错误,迫使医生必须花时间说服患者放弃错误认知。
“有时人们的确判断准确,”加拿大不列颠哥伦比亚省科伍德市家庭医生卡桑德拉·斯蒂勒-莫尔多万博士表示,“但其他时候,你需要大量时间说服他们实际情况并非如此。这种教育过程耗时甚巨。”
加拿大研究团队发现,在准确诊断健康问题方面,ChatGPT等服务出错频率高于正确频率。
滑铁卢大学研究人员评估了ChatGPT第4版的表现,向其提出一系列开放式医学问题。结果显示,ChatGPT的回复中仅31%被视为完全正确。
加拿大医学会表示,鉴于数百万加拿大人无法获得家庭医生,日益增长的AI依赖现象可以理解。
“人们上网寻求帮助的部分原因在于他们无法获得应得的医疗服务,”加拿大医学会主席凯瑟琳·罗斯博士指出,“当你长期拥有初级保健提供者时,你们会建立信任关系,从而能够开展那些艰难的讨论。”
然而,由于急诊诊所和医院候诊时间漫长,且与可信赖的医疗提供者面对面交流机会减少,许多加拿大人选择转而咨询人工智能工具。
【全文结束】

