一些医生在临床决策中使用像ChatGPT这样的公共AI聊天机器人,安全吗?Some doctors are using public AI chatbots like ChatGPT in clinical decisions. Is it safe?

环球医讯 / AI与医疗健康来源:www.fiercehealthcare.com美国 - 英语2024-10-07 19:00:00 - 阅读时长2分钟 - 827字
探讨医生在临床决策中使用公共AI聊天机器人的情况及相关问题
ChatGPT临床决策医生健康访问AI聊天机器人医疗领域安全风险HIPAA规定医生培训监管途径
一些医生在临床决策中使用像ChatGPT这样的公共AI聊天机器人,安全吗?

美国的一些医生在临床决策中使用像ChatGPT这样的公共AI聊天机器人。19岁的利亚在纽约一家皮肤科诊所复诊时,医生使用ChatGPT检查药物相互作用,这让利亚感到奇怪。近期数据表明,许多成年人使用AI聊天机器人获取健康信息或建议,且有一定比例信任其提供的信息。

虽然GenAI的实验、研究和潜在用例在医疗领域不断增加,但使用公共的AI工具,如ChatGPT,存在诸多问题。目前难以确切知道有多少临床医生在使用ChatGPT这样的工具及使用目的,但传闻表明这种情况确实存在。Fierce Healthcare与Sermo合作的调查发现,76%的受访者称在临床决策中使用通用的LLM,超过60%的医生用其检查药物相互作用,超过半数用于诊断支持等。大多数受访者会对LLM的输出进行审查。

医生使用未经审查的信息源存在风险,比如ChatGPT训练数据的不可靠、容易出错、缺乏上下文等,算法也可能存在错误和偏见。但ChatGPT在医学知识方面并非完全无知,只是使用未经验证的工具可能违反HIPAA规定。专家认为使用这些工具应谨慎并理解其工作原理,AMA也反对医生使用此类工具辅助临床决策。

医生使用ChatGPT等工具的原因包括节省时间和易于使用,但也存在诸多难题。例如,难以确定从ChatGPT获取的回复是否准确有用,转向未经审查的信息源反映了医疗系统的结构性问题。不过也有人认为ChatGPT可用于头脑风暴或生成假设以支持临床医生。

医生培训难以跟上需求,相关的培训通常不是医学院课程的核心部分,尽管一些院校和机构在努力改进。

目前美国在医疗保健领域的某些AI工具只有一条监管途径,即通过FDA,尽管监管机构正在思考这个问题。相关机构也在采取措施,如ONC希望推动行业提高透明度和标准化。有人担心等待制定指南的过程中存在风险,一些医生组织也发布了相关建议。在卫生系统层面,控制GenAI的使用取决于各个机构。CHAI等组织在努力制定相关标准,但也存在争议。

大健康

猜你喜欢

  • 到2032年,诊断领域的人工智能市场将达到73亿美元,全球市场洞察公司称到2032年,诊断领域的人工智能市场将达到73亿美元,全球市场洞察公司称
  • 医疗聊天机器人的未来趋势:AI集成及更多医疗聊天机器人的未来趋势:AI集成及更多
  • 随着人工智能医疗扩展,专家警告存在偏见随着人工智能医疗扩展,专家警告存在偏见
  • 医生担忧患者依赖人工智能进行药物处方医生担忧患者依赖人工智能进行药物处方
  • 随着AI医疗保健的扩展,专家警告存在偏见随着AI医疗保健的扩展,专家警告存在偏见
  • AI驱动的健康洞察:Dialog Axiata的新扫描服务提升医疗保健可及性AI驱动的健康洞察:Dialog Axiata的新扫描服务提升医疗保健可及性
  • 亚马逊专利将AI引入医疗保健领域亚马逊专利将AI引入医疗保健领域
  • 硅谷巷CEO开发AI机器人以帮助阿尔茨海默病患者硅谷巷CEO开发AI机器人以帮助阿尔茨海默病患者
  • 超越诊所:韩国IT巨头如何推动数字健康进化超越诊所:韩国IT巨头如何推动数字健康进化
  • 切图公司的普拉文·瓦齐拉尼探讨医疗软件和设备解决方案中的人工智能创新切图公司的普拉文·瓦齐拉尼探讨医疗软件和设备解决方案中的人工智能创新
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康