堪萨斯大学生命周期研究所的研究发现,寻求儿童健康信息的父母更信任像ChatGPT这样的人工智能,而不是医疗专业人士。他们还评价AI生成的文本具有可信度、道德性和可信赖性。这项研究的首席作者、堪萨斯大学临床儿童心理学博士生Calissa Leslie-Miller表示,由于认识到父母经常上网寻求建议,研究人员希望了解使用ChatGPT的情况及其解读方式。
Leslie-Miller及其团队对116名年龄在18至65岁的父母进行了研究。这些父母被提供了关于婴儿睡眠训练和营养等健康相关主题的文本。参与者审查了由ChatGPT和医疗专业人士生成的内容,但不知道是谁写的。“参与者几乎无法区分专家撰写的情景描述和通过提示工程生成的ChatGPT内容,”Leslie-Miller说。“当情景描述在统计上有显著差异时,ChatGPT被评为更可信、准确和可靠。”
为什么父母更信任AI
Leslie-Miller表示,该研究并未探讨父母为何更信任ChatGPT,但她推测可能有多个因素在起作用。OnPoint Healthcare Partners的总裁兼首席执行官Jim Boswell认为,ChatGPT的简单性和亲和力可能是原因之一。另一个可能的因素是ChatGPT能够以直接且易于理解的方式呈现信息。PM Pediatric Care的首席医疗信息官兼远程医疗服务主任Mordechai Raskas博士表示:“AI工具非常擅长知道如何措辞和写作,我理解为什么父母在不知道来源的情况下会更喜欢AI的表述。可以将AI视为终极销售员;它知道如何用最恰当的话来说服你。”
Boswell解释说,当父母希望在不等待预约或回电的情况下获得快速指导时,AI平台也会更具吸引力。“有时,父母希望获得第一层指导来缓解他们的担忧或立即给出方向,无论他们是在家中还是外出,”Boswell解释道。
基于AI文本治疗孩子的风险
尽管方便,但从ChatGPT这样的来源获取健康信息并非没有风险。“信息可能不准确或不适合特定情况。例如,为年龄过小的孩子推荐药物或提供错误的治疗建议可能会导致一系列危险的结果,”Leslie-Miller说。Boswell还指出,AI响应是基于大量通用信息生成的,缺乏医疗专业人士带来的临床经验和额外见解。该平台也无法根据孩子的独特健康状况、历史或症状个性化指导。“依赖这些工具获取医疗建议可能导致症状遗漏、严重情况的误判或延迟寻求适当护理,”Boswell说。“对于孩子来说,小的健康问题可能会迅速恶化,因此由合格的专业人员评估情况至关重要。”
PM Pediatric Care的高级医疗顾问Christina Johns博士表示,诊断和治疗孩子没有单一的答案。个体化的医疗护理最好由您的医疗保健提供者进行。“也就是说,带着对相关信息和背景的理解和认识来到医疗咨询中,意味着你已经做好了准备,可以成为与医生共同做出明智决策的知情决策者,”Johns博士说。AI生成的文本听起来可能可靠且可信,但Boswell表示,如果没有人类专家的支持,就没有准确性保证。“这可能有风险,特别是如果信息会影响孩子的健康,”Boswell说。“知道某段内容是由AI生成的可以帮助父母意识到他们应该从医疗保健提供者或经过验证的医学资源处寻求验证,然后再做出健康决策。”
如何识别AI生成的文本
Leslie-Miller表示,父母可以通过寻找某些指标来识别AI生成的文本,例如模糊的语言、缺乏具体的引用或专家参考,以及过于泛泛的建议,不考虑个人情况。“AI生成的文本通常语气中立且非常泛泛,缺乏专家提供的详细见解或具体例子,”Boswell说。“它也可能试图涵盖每一个可能的角度,而不给出强烈建议。”他补充说,检查信息的作者和来源也很关键。“可信的健康内容通常会归功于合格的医疗作家或医疗专业人士,并链接到基于研究的来源。”当不确定时,Boswell建议与医疗保健提供者确认你找到的信息。这种方法使你保持知情,同时减少与错误信息相关的风险。
在线查找可信的健康信息
Leslie-Miller表示,值得信赖的在线健康信息来源包括美国儿科学会(AAP)、疾病控制与预防中心(CDC)和世界卫生组织(WHO)。还可以搜索当地医院的网站,看看你孩子的医疗保健提供者是否在网上发布健康建议和信息。“在线阅读和搜索可能非常有帮助,”Raskas博士说。“这取决于上下文,并且需要与可信的来源或专业人士结合,以帮助消化你读到的内容。”Raskas博士补充说,医疗保健提供者应帮助家庭找到适合他们情况的高质量信息。“我认为作为医疗保健专业人士,我们也需要诚实地承认我们知识的局限性,”Raskas博士说。“我们可以承认我们也需要在线搜索信息,这样做本身并没有错。关键是平衡、筛选和恰当地应用这些知识。”
需要对AI进行哪些改进
随着AI和ChatGPT在社会中的普及,确保生成的信息准确且无害变得越来越重要。Boswell表示,一种方法是纳入医疗专业人士的定期审查过程,特别是在提供健康指导时。“在模型训练中融入临床监督和基于证据的资源可以提高准确性和可靠性,”他说。“在OnPoint,我们在AI平台Iris中优先考虑临床监督,每项AI功能都有人类专业知识支持,以确保其符合医疗标准。”Leslie-Miller同意这一观点,建议AI开发者定期让人类专家验证内容。“此外,提示工程可以用于优化AI输出,使其更加准确和可靠,”Leslie-Miller说。“整个过程中的持续人类监督对于确保提供的信息真实可信至关重要。”
(全文结束)

