"我可能得了什么病?"根据2025年的一项代表性调查,德国近一半的人曾向AI聊天机器人提出过这类和其他健康问题。
然而,这些问题通常被提给那些并非专为医疗咨询设计的聊天机器人。与此同时,越来越多的AI语言模型正专门针对医疗和健康问题开发,如Buoy Health、Ada或SkinGPT。
越来越多的患者在看医生前先询问AI聊天机器人
在黑森林巴尔茨布隆的诊所中,全科医生沃尔夫冈·冯·梅斯纳大量使用AI,他注意到越来越多的患者在看医生前先向"AI大夫"咨询,即请聊天机器人给出初步判断:
"他们希望从我这里听到,我认为什么可能性大或小。我相信他们希望我在某种程度上对此负责。"——如果患者确实来诊所就诊的话,因为在家里,聊天机器人24小时提供咨询服务。
最新的AI模型现在已经能够记住之前的输入。经常使用AI聊天机器人的用户很快会产生一种感觉:AI聊天机器人了解我,至少在某种程度上。但正是这种记忆功能,这种"记住"能力,是一个关键点——特别是在医疗问题上,图宾根的AI开发者丹尼尔·泰格兰德解释道:
"问题是:现在我的记忆功能中有很多口语化、可能在事实上不准确的内容。然后我问我的医疗问题,但我的模型由于之前那些不准确的对话而被人为地大大削弱了,因为我谈到了情感之类的事情。现在我收到的对我医疗问题的反馈带有情感色彩。"
AI聊天机器人经常给出错误的健康建议
这些记忆可能会增加提供不恰当和错误信息的风险。伯尔尼应用科学大学的数字健康专家克尔斯汀·德内克表示,这可能导致危险的自我诊断。如果在患者中引发重大恐惧,最终可能会延误医疗治疗,因为他们因此不去看医生。德内克解释说,目前证据情况尚不明确。
但已有初步迹象表明AI在医疗保健领域目前能做些什么。2026年初,OpenAI在美国推出了ChatGPT Health,专门针对与健康相关的医疗问题。患者可以随时通过AI直接提出关于自己诊断的问题,相当于一种随时可用的第二意见。但这个AI系统的工作可靠性如何?
发表在《自然》杂志上的一项研究直接测试了OpenAI的这一新功能。研究发现,该AI语言模型会系统性地淡化医疗紧急情况。在紧急情况下,该AI系统约半数的查询中倾向于低估急性症状,建议观察。然而,通常更快地去医院就诊才是更好的建议。AI专家克尔斯汀·德内克在这些AI模型中发现了一个模式:
"它很少追问并说缺少哪些信息才能做出适当反应。这是一个人类会做的事情,知道哪些信息对于进行分诊至关重要。"
AI诊断可与天气预报相比
大量迹象表明,在重要的医疗问题上,AI在可预见的未来仍不能承担全部责任。尽管如此,全科医生沃尔夫冈·冯·梅斯纳认为,AI可能比人类犯错更少的时刻终将到来。这位医生表示,对于医学的某些领域,这一时刻实际上已经到来。
因此,AI模型可以承担大量工作并在诊断中提供帮助,即使它们并不完美。他认为AI将成为一种工具,患者和医疗专业人员很快将不愿放弃。AI开发者丹尼尔·泰格兰德将这种AI使用比作天气预报:
"我们已经接受,如果预报说明天会下雨,那也可能是完全错误的。(...)我们知道这可能发生,这不好,但它带来的好处仍然比不看预报要多,我也是这么看待它的。"
专门针对健康的AI系统开发刚刚开始
与天气预报不同,AI回答中仍然缺少概率信息。例如,当询问某种疾病的症状时,AI回答正确的概率是多少。研究项目已经在寻找解决方案,但迄今为止没有成功。
与此同时,对于社会越来越多的人群来说,AI语言模型正日益成为几乎所有生活问题的咨询对象——几乎总是使用同一个AI聊天机器人。专家们主要希望看到专门针对健康问题训练的专业AI系统。除了ChatGPT自己的健康领域外,已经有一些初步尝试,但专门针对所有与医学和自身健康相关问题的专业AI系统的开发才刚刚开始加速。
【全文结束】

