人工智能(AI)正在通过集成先进的AI代理来改变医疗技术(“医疗科技”)和医疗保健行业。与执行离散、预定义任务的传统AI系统不同,AI代理是半自主的软件系统,能够独立做出传统上由人类做出的决策,执行复杂的任务序列,并以最少的人类干预与其他系统动态交互。在生命科学和医疗科技行业中,这些代理可以自主设计实验、分析研究数据、监控临床试验、优化制造过程、与患者互动并提供支持,甚至生成新的假设供调查。
随着医疗科技行业越来越多地采用AI代理作为服务(AIAaaS),企业应考虑为其商业合同采用一种细致的框架。
1. 导航数据权利和使用
如今,数据变得越来越重要,因此数据所有权和使用权成为合同谈判中的关键点。提供商通常希望更广泛地访问匿名患者数据,以不断改进AI模型的准确性和能力。然而,医疗机构和其他客户通常担心患者隐私和合规义务,这可能导致他们严格限制数据使用。因此,协商AIAaaS协议的公司可能希望明确解决数据访问参数、允许的使用范围、审计程序和特定的监管义务(例如,HIPAA和GDPR合规性)。
公司应考虑对不同类别的数据(如原始输入数据、生成的输出数据以及与模型和AI代理性能相关的分析数据)应用特定的所有权和使用权。
2. 知识产权明晰
围绕AI代理的知识产权问题可能涉及算法、数据集、用户驱动的改进和AI生成的输出的所有权等复杂问题。提供商通常希望保留核心AI技术的权利,而医疗机构和其他客户则可能寻求对特定定制或衍生输出的权利或独家访问权。在协议中明确界定所有权、许可使用和限制可以帮助确保成功的合作。
3. 解决监管框架
医疗科技中的AI代理在一个多司法管辖区且快速变化的监管环境中运作。协议应考虑监管义务的范围以及哪一方负责遵守这些义务。例如,各方应确定AI代理是否符合FDA或国际法规下的医疗器械资格,并由谁负责其合规性。各方还应处理欧盟AI法案的合规问题,特别是如果AI系统被归类为第6条下的“高风险”。鉴于监管环境的快速变化,各方应在进一步指导出台时建立灵活性以适应需求。
4. 管理责任和人工监督
随着公司在临床环境中赋予AI代理更多自主权——尤其是在诊断和患者护理决策等高风险领域——明确界定监督和实施的责任范围变得至关重要。所需的人工监督水平可以根据AI系统的复杂性和风险状况显著不同。此外,在AI代理直接与患者或医疗专业人员互动的情况下,关于AI参与的透明度、操作指南的清晰度以及反馈或报告问题的机制可能是至关重要的。AIAaaS协议应明确具体的监督要求,并定义角色和责任。
5. 责任分配和第三方管理
AI代理的自主性质带来了独特的责任考虑。各方可能需要明确区分与固有的AI系统错误相关的责任和因误用或不足的人工监督导致的责任。前者可能被视为固有的业务风险,可以通过较低的服务价格来抵消。后者可能更合理地分配给某一方。合同还需要反映基础AI模型提供商规定的任何风险分配要求作为传递要求。此外,供应商如果能够在其自己的AI供应商协议中传递这些风险,可能会更容易接受客户强加的监管、质量和网络安全要求。
随着医疗科技公司越来越多地考虑AI代理,公司可能需要调整其商业合同框架。围绕数据所有权和使用权、知识产权保护、监管责任、人工监督和责任分配进行深思熟虑的谈判将是至关重要的。
(全文结束)

