AI代理——指无需或仅需极少人工干预即可执行任务的自主系统——正逐渐在医疗领域获得应用。医疗行业面临在不降低护理质量的前提下压缩成本的巨大压力,健康科技专家认为代理型AI可能是实现这一艰巨目标的可扩展解决方案。
然而,网络安全与数据隐私律师莉莉·李指出,相较于早期AI技术,此类系统存在更高风险。作为元宇宙法律事务所创始人的李莉强调,代理型AI的核心设计即为代消费者或组织执行操作,这意味着人类可能被排除在关键决策或任务流程之外。
她明确表示:"若输出存在幻觉或错误,或训练数据存在偏见,这些错误将产生现实影响。"例如,AI代理可能错误续开处方或误判急诊分诊,导致患者受伤甚至死亡。此类假设场景凸显了当责任主体从持证医疗提供者转移时产生的法律模糊地带。
李莉进一步指出:"即便AI代理作出'正确'医疗决策,但患者对治疗无良好反应时,若无执业医师参与,现有医疗过失保险是否覆盖相关索赔仍不明确。"她认为医疗领导者正运作于复杂领域,社会需关注代理型AI的潜在风险,但仅限于当这些工具造成的超额死亡率或伤害超过同等情境下人类医师的情况。
该律师还警示网络犯罪分子可能利用代理型AI发起新型攻击。为此她建议医疗机构将代理型AI特有风险纳入风险评估模型与政策:首先审查底层数据质量,消除编码、计费及决策中将输入模型的现有错误与偏见;其次为AI操作设置防护措施,例如限制AI请求频率、设定地理区域限制、过滤恶意行为。
李莉同时敦促AI企业为其代理系统采用标准化通信协议,通过加密和身份验证防止工具被恶意利用。在她看来,代理型AI在医疗领域的未来或将更多取决于行业构建信任与问责机制的能力,而非技术本身。
照片来源:Weiquan Lin,盖蒂图片社
【全文结束】