人工智能(AI)在医疗保健领域的应用已成为一种持久趋势,是过去十年左右公认的进展。如今,AI已经发展到能够执行许多曾经仅由医生负责的任务和操作。某些AI程序现在被设计用于进行复杂的诊断、提供心理辅导、检测药物相互作用、阅读和诊断影像、预测结果以及审阅科学文章等。随着AI能力的不断提升,医生的角色可能会发生变化。未来,医生很可能会越来越多地在半自主系统中担任监督角色,同时保留责任但独立性降低。
20世纪30年代,哲学家瓦尔特·本雅明曾写道,摄影和电影将对绘画和画家产生重大影响。有人认为,视觉图像的引入会使绘画和画家变得过时。许多人贬低了照片的艺术价值,正如今天许多人质疑AI是否能真正理解疾病或对不适产生共情。摄影的反对者认为,原创艺术品(如绘画)具有一种所谓的"光环",与作为照片图像的复制品相比,原创艺术品有其特殊之处,绘画反映了其独特的历史和在时间、空间及社会意义中的独特轨迹。
今天的医生拥有类似的东西。他们的专业权威建立在独特的培训、积累的实践经验、与患者的面对面接触以及细致的临床判断之上。就像一幅原创画作,医疗专业知识似乎与其行使者——临床医生密不可分,而不是与支持医生实践的工具或机构相关联。
现在,医疗保健领域迎来了最新的AI举措。正如2026年4月13日《美国医学会杂志》(JAMA)所记录的,这是首个AI药物处方系统。它源自美国犹他州,该州于1896年1月4日作为第45个州加入联邦,以其独特的地理环境而闻名,包括大盐湖和"五大"国家公园:锡安国家公园、布莱斯峡谷国家公园、拱门国家公园、国会礁国家公园和峡谷地国家公园。
2026年1月,犹他州公布了一项开创性的合作,与一家AI公司合作开发无需医生参与的AI处方程序。Doctronic公司销售的AI处方软件包声称可进行"全面医疗评估","模拟持证医生会遵循的临床决策过程"。最初,它旨在专注于处方续签,该软件设计用于开具近200种药物,包括皮质类固醇、他汀类药物、抗抑郁药、激素和抗凝血剂。它有潜力发展成为一个自主系统,甚至可以在没有医生参与的情况下提供原始处方。
在面临初级保健医生以及某些专科医生短缺的世界中,AI处方具有明显优势。公共卫生的目标是确保患者能够获得安全有效的药物,并在适当的情况下持续使用。西方国家有记录的科学研究显示,存在不遵医嘱、不服用首次处方药物以及不获取续方的问题。确实,AI可以减少普遍存在的用药错误,提高流程效率,并让医生专注于复杂的诊断任务或人际互动。
然而,技术驱动的革命也可能造成损害、产生浪费,甚至破坏医患关系。它们可能会减少患者与临床医生的接触,大幅降低医生发现其他问题以及患者提出担忧和问题的机会。医生必须经过严格的培训和临床能力证明才能获得行医资格。AI处方系统则没有相应的安全流程。AI公司通常不会公开透露软件进行医疗决策的精确操作细节。在犹他州的协议中,提供的只是一般性描述,包括AI处方系统"基于既定医疗协议进行训练",其算法通过"反馈循环"不断进步。然而,这些远不及对医生培训所提供的绝对详细保证。
在美国治理体系中,大多数州长期以来都制定了药品分发的基础法律,将持证医生和药剂师定位为必要的护理者甚至是把关者。联邦法律要求,任何"除非在法律许可的执业者监督下使用否则不安全"的药物,必须"仅凭法律许可的执业者的书面处方"分发。AI处方系统不是持证"执业者",而犹他州在这里豁免了州要求。它为那些被认为可能对消费者有益的创新企业豁免了州法律。
根据美国食品药品监督管理局(FDA)主要法规,AI处方系统属于"明确用于疾病治疗、缓解、治疗或预防的仪器、设备、工具或机器",这使其成为FDA监管的医疗器械。2016年《21世纪治愈法案》为涉及行政支持、一般健康或电子记录存储的软件创建了豁免。对于临床软件,FDA通常只对辅助医生决策的工具行使执法自由裁量权。根据设计,AI处方系统移除了医生,这意味着需要FDA监管。
然而,在犹他州的协议中,该公司显然没有尝试与FDA就该技术进行接洽,而是基于FDA不监管医学实践的假设运作。确实,联邦法律和FDA本身表示FDA不监管医学实践。然而,联邦法律也强调,医疗器械和药物必须在合法的医患关系内合法销售和使用。联邦法律不允许用无证计算机取代医生。
这一难题的科学方面暗示,当前政治行政部门似乎正在忽视某些联邦监管。自2025年就职以来,现任政府的行政部门已撤销先前的AI治理命令,鼓励取消可能阻碍创新的政策,并发布了一项旨在减少对严格监管AI的州的联邦资金的行政命令。美国食品药品监督管理局局长明确强调了AI创新的必要性。鉴于这种反监管的AI环境,联邦政府对AI处方系统等举措进行干预的可能性似乎相当渺茫。
随着联邦和州监管机构的退缩,私营方已经介入。联合委员会(TJC)是一家私人非营利组织,作为医疗保健组织的主要认证机构,最近发布了不具约束力的指导意见,敦促医疗保健组织建立内部AI治理结构并严格衡量结果。AI处方系统的成功最终将取决于医疗系统的接受程度,这些系统应要求提供安全性和有效性的有力证据,最好以临床试验的形式。
侵权法是民法的一个分支,处理公共错误,例如一个人的行为导致另一个人遭受某种形式的伤害或损失,由于犹他州的协议保留了此类补救措施,因此侵权法仍然是解决患者伤害的潜在途径。然而,受伤的患者面临重大障碍。法院将不得不确定AI是否可以被要求达到与人类医生相同的护理标准。产品责任诉讼通常要求原告证明存在合理的替代设计,这对AI黑箱技术来说是一个挑战。此外,公司可能会辩称患者"自愿承担风险"使用AI处方系统。然而,这不是完整的辩护。
AI处方在州和联邦同时监管下最为安全。然而,犹他州已授予州豁免,且未证明符合FDA要求。其他公司可能会吸取教训,认为他们可以绕过联邦安全标准,并可能争相进入市场以确保不落后。
有些例子值得警惕。FDA在监管调味电子烟方面落后,这些电子烟现已无处不在,并导致了青少年电子烟流行病,甚至蔓延至斯里兰卡。未经授权的市场规模巨大,烟草公司随后使用的法律策略使上市前要求变成了一纸空文。如果AI处方在安全和责任框架建立之前成为行业标准,权力问题可能会使未来监管变得不可行。
尽管AI提供了提高效率和扩大获取的前景,但先行者逃避法律责任引发了深刻担忧。营销AI处方系统的公司正在一个独特的法律"灰色地带"运营,这在监管机构和医学协会中引发了激烈辩论。
将AI融入现代医疗保健必须基于证据并负责任。医生和医疗系统应坚持AI技术不应被允许绕过长期存在且经过验证的监管医疗产品的法律护栏。这应该是不仅适用于西方国家,而且适用于整个世界的准则。
【全文结束】

