"我可能得了什么病?"根据2025年一项代表性调查,德国近一半人口曾向AI聊天机器人提出过此类健康问题。
然而,这些咨询大多发生在并非专为医疗用途设计的聊天机器人中。实际上,专门为医学和健康问题开发的AI语言模型正日益增多,例如Buoy Health、Ada或SkinGPT。
越来越多的患者在看医生前先咨询AI聊天机器人
在黑森林地区拜尔斯布伦(Baiersbronn)执业的全科医生沃尔夫冈·冯·迈斯纳(Wolfgang von Meißner)在自己的诊所中广泛使用AI技术,并注意到越来越多的患者在就诊前会先咨询"AI医生",即请求聊天机器人为他们提供初步评估:
"他们希望从我这里听到,我认为什么是可能的或不可能的。我相信他们也希望我在某种程度上为此负责。"——特别是当患者最终来到诊所时,因为在家中,聊天机器人为他们提供了一个全天候的咨询对象。
最新的AI模型现在也能记住之前的对话内容。经常使用这些AI聊天机器人的用户很快会产生一种感觉:AI聊天机器人了解我,至少在某种程度上。但正是这种记忆功能,这种"记住"能力,成为一个关键问题——尤其是在医学问题方面,图宾根的AI开发者丹尼尔·泰格兰德(Daniel Teigland)解释道:
"问题是:我的记忆功能中积累了大量口语化、可能事实不准确的内容。当我提出医学问题时,我的模型由于之前那些不准确的对话而被人为地严重削弱了,因为我曾谈论过情感等问题。结果,我的医学问题得到了情感化的回应。"
AI聊天机器人常给出错误的健康建议
这些记忆可能会增加给出不恰当和错误信息的风险。伯尔尼应用科学大学的数字健康专家克尔斯汀·德内克(Kerstin Denecke)表示,这可能导致危险的自我诊断。如果患者因此产生巨大焦虑,最终可能会延误医疗治疗,因为他们不去看医生。德内克指出,目前关于AI在医疗领域影响的证据尚不明确。
不过,已有一些初步迹象表明AI在医疗保健领域目前能做些什么。2026年初,OpenAI在美国推出了专门针对健康问题的ChatGPT Health服务。患者可以直接提出有关诊断的问题,相当于随时可用的AI第二意见。但这个AI系统的可靠性如何?
发表在《自然》杂志上的一项研究直接测试了OpenAI的这一新功能。研究发现,该AI语言模型系统性地淡化了医疗紧急情况。在紧急情况下,该AI系统约有一半的查询中倾向于低估急性症状,建议观察而非立即就医。然而,很多时候快速前往医院才是更好的建议。AI专家克尔斯汀·德内克在这些AI模型中发现了一种模式:
"它很少回问,说缺少必要信息以做出适当反应。而这是人类医生会做的事情——知道哪些信息对于进行有效分诊至关重要。"
AI诊断可比作天气预报
大量证据表明,在重要的医疗问题上,AI在可预见的未来仍无法独自承担全部责任。尽管如此,全科医生沃尔夫冈·冯·迈斯纳认为,AI可能比人类犯更少错误的时刻将会到来。这位医生表示,对于医学的某些领域,这一时刻实际上已经到来。
因此,AI模型可以承担大量工作并辅助诊断,即使它们并不完美。他认为AI将成为一种不可或缺的工具,患者和医疗专业人员很快将不愿放弃。AI开发者丹尼尔·泰格兰德将这种情况下的AI使用比作天气预报:
"我们已经接受,如果预报说明天会下雨,那可能完全是错误的。(…)我们知道这可能会发生,这不好,但它带来的好处仍然比不看预报要多,我也是这么看待AI的。"
针对健康的专用AI系统开发才刚刚开始
与天气预报不同,AI回答目前还缺乏概率说明。例如,当被问及疾病症状时,AI回答正确的概率是多少。研究项目已经在寻找解决方案,但至今尚未成功。
与此同时,对于社会中越来越大的一部分人来说,AI语言模型正日益成为几乎所有生活问题的咨询对象——几乎总是使用同一个AI聊天机器人。专家们主要希望有专门针对健康问题训练的AI系统。除了ChatGPT自己的健康领域外,已经有一些初步尝试,但针对医疗和健康问题的专用AI系统的发展才刚刚开始加速。
【全文结束】

