越来越多的人开始将生成式人工智能(AI)应用于日常生活和专业工作中。ChatGPT是最知名且最广泛可用的生成式AI工具之一,它可以免费提供针对任何问题的定制化且看似合理的答案。
生成式AI工具在帮助人们了解健康方面具有巨大潜力。然而,这些答案并不总是正确的。仅依赖ChatGPT获取健康建议可能会带来风险,并引起不必要的担忧。
生成式AI仍然是一项相对较新的技术,并且不断变化。我们的新研究提供了有关谁在使用ChatGPT回答健康问题及其用途的首批澳大利亚数据。
这些结果可以帮助人们了解如何使用这项新技术来维护健康,并掌握安全使用所需的新技能——换句话说,建立“AI健康素养”。
谁在用ChatGPT进行健康咨询?他们在问什么?
2024年6月,我们询问了一个全国代表性样本中的2000多名澳大利亚人,他们是否曾使用ChatGPT回答健康问题。
十分之一(9.9%)的人在2024年上半年向ChatGPT提出了健康问题。
平均而言,他们表示对ChatGPT“有些”信任(满分5分中得分为3.1分)。
我们还发现,使用ChatGPT进行健康咨询的比例在健康素养较低、出生在非英语国家或在家说其他语言的人群中更高。
这表明ChatGPT可能在支持那些难以接触传统健康信息形式的澳大利亚人群体。
十分之一的澳大利亚人在去年上半年向ChatGPT提出了健康问题(Kampus Productions/Pexels)。
人们向ChatGPT提出的最常见的问题包括:
- 了解某种健康状况(48%)
- 了解症状的含义(37%)
- 询问行动建议(36%)
- 或理解医学术语(35%)
超过一半(61%)的人至少提出过一个通常需要临床建议的问题。我们将这些问题归类为“更危险”。向ChatGPT询问你的症状可能可以给你一个大致的概念,但不能替代临床建议。
出生在非英语国家或在家说其他语言的人更有可能提出这类问题。
为什么这很重要?
使用生成式AI获取健康信息的人数可能会继续增长。在我们的研究中,39%尚未使用ChatGPT进行健康咨询的人表示在未来六个月内会考虑这样做。
如果我们考虑其他工具,如Google Gemini、Microsoft Copilot和Meta AI,使用生成式AI工具获取健康信息的人数甚至更多。
值得注意的是,在我们的研究中,来自文化和语言多样化的社区的人可能更倾向于使用ChatGPT获取健康信息。
如果他们要求ChatGPT翻译健康信息,这就增加了另一层复杂性。生成式AI工具在其他语言中的准确性通常较低。
我们需要投资于服务(无论是人力还是机器),以确保说其他语言不会成为获得高质量健康信息的障碍。
什么是“AI健康素养”?
生成式AI将继续存在,为使用它获取健康信息的人们带来机遇和风险。
一方面,这项技术吸引了那些已经面临重大障碍获取医疗保健和健康信息的人。其主要优势之一是能够即时提供易于理解的健康信息。
最近的一项研究表明,生成式AI工具越来越能够用通俗的语言回答一般的健康问题,尽管对于复杂的健康话题准确性较低。
这显然有其好处,因为大多数健康信息的编写水平对普通大众来说过于复杂,包括在疫情期间。
另一方面,人们正在转向通用的AI工具寻求健康建议。这对需要临床判断和全面了解患者情况的问题来说更为危险。
已经有案例研究表明,使用通用AI工具决定是否去医院存在危险。
你还可以去哪里获取这些信息?
我们需要帮助人们仔细考虑他们向AI工具提出的问题类型,并将他们与能够回答这些更危险问题的适当服务联系起来。
像HealthDirect这样的组织提供了一条全国性的免费热线,你可以通过这条热线与注册护士交谈,讨论是否需要去医院或看医生。HealthDirect还提供了一个在线症状检查器工具,帮助你确定下一步行动。
虽然许多澳大利亚卫生机构正在制定AI政策,但大多数政策都集中在医疗服务和工作人员如何使用这项技术上。
我们迫切需要为社区配备AI健康素养技能。随着越来越多的人使用AI工具获取健康信息,这一需求将会增加,同时也会随着AI工具的发展而变化。
(全文结束)

