新研究表明,使用人工智能的医生在同行眼中评价负面
研究意义:约翰霍普金斯大学凯瑞商学院(Johns Hopkins Carey Business School)的研究发现,尽管临床医生面临成为人工智能早期采用者的压力,但许多医生因使用人工智能而受到同行的质疑,这引发了对医疗保健环境中人工智能未来发展的担忧。
如果您知道同事会因此认为您能力不足,您还会在工作中使用人工智能吗?这是医生们当前面临的问题。
尽管生成式人工智能(generative AI)在推进医疗保健方面具有巨大潜力,但一项新研究表明,其在医疗决策中的使用会影响医生在同行眼中的形象。研究显示,主要依赖生成式人工智能进行决策的医生会面临同行临床医生的严重质疑,后者将他们使用人工智能与临床技能和整体能力的缺乏联系起来,导致患者护理质量感知下降。
污名阻碍更好医疗
研究结果可能表明,医疗保健环境中存在人工智能采用的社会障碍,这可能会减缓可能改善患者护理的进展。
“人工智能已经毫无疑问地成为医学的一部分,”约翰霍普金斯大学凯瑞商学院Bernard T. Ferrari商业教授、该研究的共同通讯作者戴廷龙(Tinglong Dai)表示,“让我们惊讶的是,在医疗决策中使用人工智能的医生可能会被同行视为能力不足。这种污名,而非技术本身,可能是更好医疗的障碍。”
这项由约翰霍普金斯大学研究人员进行的研究涉及一项随机实验,276名执业临床医生评估了不同场景:一名医生不使用人工智能,一名医生将人工智能作为主要决策工具,另一名医生将人工智能用于验证。研究发现,随着医生对人工智能的依赖程度增加,他们面临的“能力惩罚”也随之增加,这意味着他们比不依赖人工智能的医生更受同行质疑。
“在人工智能时代,人类心理仍然是最终变量,”该研究的第一作者、凯瑞商学院管理科学硕士项目学术项目主任杨海洋(Haiyang Yang)表示,“人们对人工智能使用的看法可能与技术本身的性能同样重要,甚至更为重要。”
不使用人工智能赢得更多尊重
根据研究,依赖人工智能的医生在同行中的形象会受损。将生成式人工智能定位为“第二意见”或验证工具可以部分改善同行的负面看法,但并未完全消除。然而,不使用生成式人工智能(GenAI)反而获得了最有利的同行评价。
研究结果与一些理论一致,这些理论认为对人工智能等外部来源的依赖感知可能被临床医生视为弱点。
讽刺的是,虽然生成式人工智能的明显使用可能会削弱医生在同行中感知到的临床专业知识,但研究还发现,临床医生仍然认为人工智能是提高临床评估精确性的有益工具。研究表明,临床医生普遍认可生成式人工智能在提高临床评估准确性方面的价值,并且他们认为机构定制的生成式人工智能更有用。
研究人员指出,研究的协作性质为医疗保健环境中生成式人工智能的实施提供了深思熟虑的建议,这对于平衡创新与维护专业信任和医生声誉至关重要。
“医生高度重视临床专业知识,随着人工智能成为医学未来的一部分,认识到其补充而非取代临床判断的潜力非常重要,最终加强决策并改善患者护理,”约翰霍普金斯医学院儿科内分泌学副教授、同时在凯瑞商学院任职的该研究共同通讯作者丽莎·沃尔夫(Risa Wolf)补充道。
该研究由2022年约翰霍普金斯大学发现奖(Johns Hopkins Discovery Award)资助,包括来自大型医院系统的多样化临床医生群体,涉及主治医师、住院医师、研究员和高级执业提供者。
学生与教师合作
中谷悠奈(Yuna Nakayasu,2024届MBA/MPH)目前是全球领先管理咨询公司麦肯锡(McKinsey & Company)的顾问,但在凯瑞商学院和约翰霍普金斯布隆伯格公共卫生学院攻读学位期间,她与教师成员合作进行了同行感知研究。
“与凯瑞商学院的教师合作进行这项研究是我学生旅程的亮点,”中谷悠奈表示,“它让我将医学背景与商业和公共卫生培训相结合,探索人工智能如何重塑临床决策——这些见解将伴随我毕业后。”
【全文结束】