近年来,像OpenAI的ChatGPT和谷歌的Gemini这样的生成式AI已经逐渐融入我们的日常生活,有些人表示他们经常向这些聊天机器人提出各种问题。一项新的研究发现,许多人会向聊天机器人询问医疗相关的问题,但专家警告说这存在风险。
《2024年澳大利亚使用ChatGPT获取健康信息的情况:来自全国代表性调查的见解》——艾尔——2025年——《澳大利亚医学杂志》——Wiley在线图书馆
**
更多人向生成式AI询问健康问题,但错误的答案可能带来风险
**
尽管生成式AI已经成为人们日常生活的一部分,但它仍然是一项刚刚出现且不稳定的技术,存在“幻觉”问题,即技术输出虚假信息并将其当作真实信息。
因此,在2024年6月,澳大利亚悉尼大学健康素养实验室的博士后研究员Julie Ayre及其研究团队对2000多名澳大利亚人进行了调查,询问他们是否曾使用ChatGPT询问健康相关的问题。
调查发现,约有十分之一的受访者(大约9.9%)在2024年上半年曾向ChatGPT询问过健康问题。当受访者被要求评价他们对ChatGPT的信任程度时,平均评分为3.1分(满分5分),表明受访者对ChatGPT有一定的信任。此外,在尚未使用ChatGPT询问健康问题的受访者中,有39%的人表示他们在未来六个月内考虑使用ChatGPT。
研究团队的调查显示,使用ChatGPT询问健康问题的人群通常健康素养较低,出生于非英语国家,并在家里使用除英语以外的语言。这些结果表明,对于那些难以以习惯的方式获取澳大利亚健康信息的人来说,ChatGPT是一个有潜力的选择。
受访者使用ChatGPT进行健康咨询的常见原因包括:
- 了解健康状况(48%)
- 了解症状的意义(37%)
- 询问应该采取什么行动(36%)
- 理解医学术语(35%)
超过60%的使用ChatGPT的受访者提出了通常需要临床建议的问题。研究团队指出,在ChatGPT上询问这种专业性问题是有风险的,ChatGPT的回答不能替代临床建议。
在这项调查中,我们只询问了关于ChatGPT的使用情况,但如果将范围扩大到谷歌的Gemini、微软的Copilot等,使用AI查询健康信息的人数可能会更多。研究表明,非英语文化背景的人更倾向于使用AI,因此使用非英语语言可能是获取健康信息的一个障碍。
事实上,生成式AI为那些在其国家或文化中无法获得健康信息的人提供了一个重要的机会。实际上,2023年的一项研究显示,生成式AI工具在处理复杂的健康话题时准确性较低,但能够用更简单的语言传达一般健康信息。这是一个明显的优势,因为许多健康信息对于普通公众来说过于复杂且难以阅读。
另一方面,当要求AI诊断疾病或判断是否需要去医院时,容易忽略只有通过直接检查患者才能识别的问题,从而增加患者的风险。事实上,已有报道指出,一位过去被建议“下次出现症状时去医院”的患者在第二次出现症状时向ChatGPT寻求建议,结果直到第三次出现症状才去医院就诊。
研究团队表示:“许多澳大利亚医疗机构正在制定AI政策,但这些政策大多集中在医疗服务和工作人员如何与AI互动上。迫切需要我们为社区配备AI健康素养技能。随着越来越多的人使用AI工具来管理他们的健康,这一需求将会增加,并随着AI工具的发展而变化。”
(全文结束)

