美国的一些医生在临床决策中使用像ChatGPT这样的公共AI聊天机器人。19岁的利亚在纽约一家皮肤科诊所复诊时,医生使用ChatGPT检查药物相互作用,这让利亚感到奇怪。近期数据表明,许多成年人使用AI聊天机器人获取健康信息或建议,且有一定比例信任其提供的信息。
虽然GenAI的实验、研究和潜在用例在医疗领域不断增加,但使用公共的AI工具,如ChatGPT,存在诸多问题。目前难以确切知道有多少临床医生在使用ChatGPT这样的工具及使用目的,但传闻表明这种情况确实存在。Fierce Healthcare与Sermo合作的调查发现,76%的受访者称在临床决策中使用通用的LLM,超过60%的医生用其检查药物相互作用,超过半数用于诊断支持等。大多数受访者会对LLM的输出进行审查。
医生使用未经审查的信息源存在风险,比如ChatGPT训练数据的不可靠、容易出错、缺乏上下文等,算法也可能存在错误和偏见。但ChatGPT在医学知识方面并非完全无知,只是使用未经验证的工具可能违反HIPAA规定。专家认为使用这些工具应谨慎并理解其工作原理,AMA也反对医生使用此类工具辅助临床决策。
医生使用ChatGPT等工具的原因包括节省时间和易于使用,但也存在诸多难题。例如,难以确定从ChatGPT获取的回复是否准确有用,转向未经审查的信息源反映了医疗系统的结构性问题。不过也有人认为ChatGPT可用于头脑风暴或生成假设以支持临床医生。
医生培训难以跟上需求,相关的培训通常不是医学院课程的核心部分,尽管一些院校和机构在努力改进。
目前美国在医疗保健领域的某些AI工具只有一条监管途径,即通过FDA,尽管监管机构正在思考这个问题。相关机构也在采取措施,如ONC希望推动行业提高透明度和标准化。有人担心等待制定指南的过程中存在风险,一些医生组织也发布了相关建议。在卫生系统层面,控制GenAI的使用取决于各个机构。CHAI等组织在努力制定相关标准,但也存在争议。

