国内健康环球医讯家医百科科学探索医药资讯

欧盟委员会关于高风险人工智能系统的咨询:生命科学和医疗保健领域的关键点

EU Commission Consultation on High-Risk AI Systems: Key Points for Life Sciences and Health Care

欧洲联盟英语人工智能、健康法
新闻源:National Law Review
2025-06-21 02:00:00阅读时长3分钟1292字
欧盟委员会人工智能法案高风险人工智能系统生命科学医疗保健监管框架实施指南高风险分类强制要求价值链责任实际实施挑战

内容摘要

2025年6月6日,欧盟委员会启动了一项针对高风险人工智能系统分类和监管的定向利益相关者咨询。此次咨询为生命科学和医疗保健领域的利益相关者提供了塑造即将出台的高风险人工智能系统指南的机会。

2025年6月6日,欧盟委员会启动了一项针对《欧盟人工智能法案》(AI Act)中高风险人工智能系统分类和监管的定向利益相关者咨询。此次咨询为生命科学和医疗保健领域的利益相关者提供了塑造即将出台的高风险人工智能系统指南的机会。

高风险人工智能系统的监管框架

2024年通过的《人工智能法案》建立了在欧盟开发、投放市场和使用人工智能的统一法律框架。该法案采用基于风险的方法,将人工智能系统分为四类:不可接受的风险(禁止)、高风险、有限风险和最小风险。

对生命科学和医疗保健领域尤为重要的是高风险人工智能系统,这些系统受到广泛的监管合规机制约束,包括风险管理、数据和数据治理、技术文档、记录保存、透明度、人类监督以及准确性、鲁棒性和网络安全等方面的要求。

《人工智能法案》第6条定义了两类高风险人工智能系统:

欧盟委员会指南的作用

虽然《人工智能法案》提供了法律框架,但欧盟委员会的实施指南将在澄清高风险制度如何解释和应用方面发挥关键作用。这对于监管灰色地带尤为重要,例如在医疗器械、数字疗法、临床研究医疗保健管理中使用的AI,其风险概况可能不明显。尽管这些指南对法院没有约束力,但对于生命科学和医疗保健公司来说,它们对于确定AI系统是否属于高风险类别及其应遵守哪些合规义务至关重要。

与生命科学和医疗保健业务相关的咨询要点

此次咨询涉及多个对生命科学和医疗保健领域利益相关者非常重要的问题:

政策参与的好处

欧盟委员会的咨询为生命科学和医疗保健公司提供了塑造《人工智能法案》实施的重要机会。通过贡献实际见解并突出行业特定挑战,利益相关者可以帮助确保即将出台的指南既有效又适当。在医疗保健领域使用或开发AI系统的公司应根据《人工智能法案》的高风险分类标准评估其产品组合,并考虑在2025年7月18日截止日期前提交反馈。

利益相关者可以通过欧盟调查门户访问咨询。


(全文结束)

声明:本文仅代表作者观点,不代表本站立场。

本页内容撰写过程部分涉及AI生成(包括素材的搜集与翻译),请注意甄别。

7日热榜