从语言判断认知障碍:人类与大型语言模型的可解释人工智能方法Human and large language model judgments of cognitive impairment from language: An explainable artificial intelligence approach - Rutgers, The State University of New Jersey

环球医讯 / 认知障碍来源:www.researchwithrutgers.com美国 - 英语(美国)2026-02-15 05:41:14 - 阅读时长2分钟 - 624字
这项研究深入比较了非专家人类和大型语言模型在识别语言中认知障碍迹象方面的能力差异。研究发现人类判断往往不一致且依赖有限线索,而大型语言模型能运用更丰富的临床相关特征进行判断,但两者均存在假阴性倾向。研究表明语言模型在检测痴呆症相关语言信号方面比人类更全面,能更好与医学诊断结果一致,但也存在将语言流利度误判为认知健康的局限。该研究不仅强调了提高公众对认知障碍早期识别能力的重要性,还揭示了可解释人工智能在痴呆症筛查中的独特价值,为未来开发更精准的认知健康评估工具提供了科学依据。
认知障碍痴呆症健康对照组大型语言模型可解释人工智能语言线索早期识别假阴性感知模式临床诊断
从语言判断认知障碍:人类与大型语言模型的可解释人工智能方法

摘要

引言:本研究考察了非专家人类(对痴呆症不熟悉的年轻人)和大型语言模型(LLMs)如何在转录文本中感知痴呆症——识别可能表明认知能力下降的迹象。人类的感知至关重要,因为它往往是促使人们寻求医学评估的主要动因。考虑到LLMs作为筛查工具的巨大潜力,它们的感知能力同样具有重要研究价值。

方法:研究人员让人类和LLMs直观判断转录的图片描述是来自痴呆症患者还是健康对照组。我们使用高级专家指导的特征表示文本,并采用逻辑回归建模感知过程并分析相关系数。

结果:人类的判断表现出不一致性,主要依赖于狭窄且有时具有误导性的一组线索。相比之下,LLMs运用了更丰富、与临床诊断更一致的特征集。值得注意的是,两组都表现出明显的假阴性倾向,即未能识别出实际存在的认知障碍。

讨论:本研究突显了教育人类和LLMs识别更广泛的与痴呆症相关的语言信号的必要性。同时,研究也强调了可解释性在痴呆症研究中的核心价值,这有助于提升诊断工具的透明度和可信度。

亮点:可解释人工智能(AI)技术成功揭示了人类和大型语言模型(LLMs)与痴呆症相关的语言线索。LLMs能够对图片描述进行专家定义特征的可扩展提取,使用比人类更广泛的线索来检测痴呆症,并与临床诊断结果保持更高的一致性。研究发现人类和LLMs均存在假阴性问题;特别值得注意的是,LLMs倾向于将语言流利度视为认知健康的标志。深入理解非专家的感知模式可以指导公众教育策略,提高对认知障碍的早期识别意识。

【全文结束】

猜你喜欢
  • 女性心血管疾病:诊断不足、治疗不足和代表性不足女性心血管疾病:诊断不足、治疗不足和代表性不足
  • 美国首个"痴呆症村"将容纳65名居民,耗资4000万美元打造仿小镇环境美国首个"痴呆症村"将容纳65名居民,耗资4000万美元打造仿小镇环境
  • 人工智能在芝加哥大学医学中心与西北大学医疗系统中为医患双方发挥关键作用人工智能在芝加哥大学医学中心与西北大学医疗系统中为医患双方发挥关键作用
  • 专家紧急警告使用AI进行医疗决策存在风险 聊天机器人提供不准确医疗建议专家紧急警告使用AI进行医疗决策存在风险 聊天机器人提供不准确医疗建议
  • 研究发现使用人工智能获取医疗建议存在危险研究发现使用人工智能获取医疗建议存在危险
  • 专家紧急警告使用AI进行医疗决策存在风险 因聊天机器人提供不准确建议专家紧急警告使用AI进行医疗决策存在风险 因聊天机器人提供不准确建议
  • 人工智能聊天机器人未能改善医疗决策人工智能聊天机器人未能改善医疗决策
  • 并非真正医生:人工智能在治疗人类患者方面面临困境并非真正医生:人工智能在治疗人类患者方面面临困境
  • 肥胖与衰老:研究揭示炎症与认知衰退的关联肥胖与衰老:研究揭示炎症与认知衰退的关联
  • 研究:AI聊天机器人可能提供不安全的医疗建议研究:AI聊天机器人可能提供不安全的医疗建议
热点资讯
全站热点
全站热文