加拿大医疗从业者注意到,随着医疗系统压力的不断增加,人们越来越倾向于使用AI工具,如ChatGPT,来满足他们的医疗需求。
“AI没有上过医学院,也没有经过多年的住院医师培训和医学专业训练,”安大略省医学会主席多米尼克·诺瓦克博士说。
但在2024年,有250万安大略省居民没有家庭医生。
在许多社区,医生短缺已经从“危机”发展到“灾难”。今年早些时候,数百人在安大略省沃克顿冒着严寒排队,只为有机会注册一位家庭医生。
人们不应该因为绝望而求助于“自助医疗”,诺瓦克说。
选择AI路线的患者将错过与医生建立富有成效的关系。“医学的很大一部分不仅仅是教科书上的知识,还包括实践经验。目前,AI无法捕捉到这一点,”他说。
儿科肾病专家、西大学儿科系助理教授阿姆里特·基尔帕拉尼博士表示,他经常看到患者使用所谓的“ChatGPT医生”。
家长们“非常坦诚地告诉我,ChatGPT告诉他们关于孩子病情或药物的某些信息,”他在电子邮件中写道。在某些情况下,他不得不纠正错误信息或补充额外的背景。
这出现得如此频繁,以至于基尔帕拉尼正在尝试在他的实践中更加主动地提醒患者不要使用AI进行医疗建议和决策。“我确实鼓励家庭提出他们在ChatGPT(或其他平台)上看到的任何与我们在诊所讨论的内容不同或冲突的信息,”他继续说道。
安大略省护士协会省级主席、注册护士艾琳·阿里斯在一封电子邮件声明中表示:“护士和医疗保健专业人员利用我们的实际经验以及技能和知识来提供我们提供的建议和护理。”
AI如何帮助
诺瓦克表示,AI确实在医学领域有一席之地。但他认为AI工具是“团队成员”而不是“替代品”。
例如,AI可以用作临床书记员,减少医生记笔记的时间。
患者也想出了创新的方法来使用AI。
“我还有一些患者告诉我,他们使用AI帮助他们向孩子解释某个特定概念(例如,向5岁的孩子解释他们的疾病),”基尔帕拉尼在电子邮件中写道。“在很多情况下,这实际上对个性化内容以适应个别患者非常有帮助。”
诺瓦克曾见过一名患者在被诊断出糖尿病后使用AI帮助制定饮食计划。该患者输入了他们最喜欢的食物、限制和偏好,并要求AI提供食谱建议。
他还见过一名患者要求AI将他们的医疗报告翻译成通俗易懂的语言,以便他们能够与医生进行富有成效的对话。
“我认为这非常有创意,也是人们掌握自己健康的一种方式,”诺瓦克说。但在每种情况下,医生仍然是重要的一部分。
“我的经验是这些工具可以帮助患者了解症状和特定状况,但无法考虑上下文,”安德鲁·平托博士在电子邮件中写道,他是圣迈克尔医院上游实验室的主任,该实验室正在进行有关新AI工具的研究。“有时它们带来的担忧多于好处。”
AI在医生已经咨询之后更有帮助。“在早期或以它不打算使用的方式使用它时存在风险,”诺瓦克说。“诊断、治疗决策等。”
这种使用AI的诱惑是更广泛问题的症状。
阿里斯说:“我们继续敦促省政府解决公共卫生系统的资金危机——特别是初级医疗的资金危机——以便人们能够及时获得安全、高质量的医疗服务,而不是冒险通过AI寻求答案。”
如果你觉得必须使用AI,请“谨慎行事”,诺瓦克说。
玛莉莎·库尔顿是《星报》驻多伦多的综合记者。联系她:mcoulton@thestar.ca
(全文结束)

