人工智能(AI)正在改变关键行业,从医学到劳动市场,但同时也带来了风险和监管挑战。例如,机器何时可以替代人类进行手术?医院如何使用在不同质量标准国家测试的医疗AI设备?尽管欧盟(EU)和美国采取了不同的策略来应对这些问题,瑞士却进展缓慢:政府最初预计今年提出的AI监管提案已推迟至2025年。法律和医学专家克尔斯汀·诺埃勒·福金格解释了为什么需要有针对性的法规来平衡创新与权利保护。
关于克尔斯汀·诺埃勒·福金格
克尔斯汀·诺埃勒·福金格拥有法律和医学背景,是苏黎世大学和苏黎世联邦理工学院的教授。她的研究重点是跨学科研究,旨在改善对医学和技术的访问。
SWI swissinfo.ch:您认为瑞士需要AI法规吗?如果是,为什么?
克尔斯汀·诺埃勒·福金格:我认为瑞士目前不需要像欧盟那样全面且横向调节所有AI技术的法规。采用部门方法更为合理,评估每个领域的特定风险和机会。这可以防止过度监管。
长期以来,瑞士声称现有法律已经足够,无需专门的AI法规。然而,欧盟的AI法规出台后,瑞士政府改变了立场。当前的瑞士法规是否足够?
确实存在一些一般性的法律,不特定于AI,例如隐私权和非歧视原则等。然而,对于AI系统可能存在的特定漏洞,我们仍需解决,因为这项技术的复杂性可能会带来额外或更具体、更极端的挑战。例如,在医学领域,我们需要定义哪些任务可以委托给机器,并相应调整法律。
在医疗领域,瑞士医院经常使用来自不同医疗标准国家(如中国)的AI集成设备。例如,用于高级放射学的机器。这给个人带来了哪些风险,应该如何监管?
这确实是一个挑战。让我举一个更广泛的例子,涉及临床试验。在开发治疗药物时,我们知道性别和种族差异可能会影响结果。同样的情况也可能适用于基于AI的医疗设备。迄今为止,许多AI设备仅在一个国家进行测试,通常是像中国或美国这样的大国。不幸的是,国际研究在批准的AI医疗设备中仍然很少见。这些国家获得的结果可能对瑞士患者并不同样有效和安全。因此,这些设备在瑞士授权前可能需要满足某些要求。
这意味着我们现在需要对AI医疗设备的审批过程实施更严格的规定,因为它们在医院中的使用越来越普遍?
首先,我们必须识别监管漏洞,了解这些技术带来的新风险。一旦确定了这些漏洞,我们需要决定应在哪个层面进行监管——例如,通过自我监管或政府法规。在这方面有多种选择。在美国,FDA(食品和药物管理局)在开发整个生命周期内有效的、能够适应软件发展的法规方面非常活跃。FDA在这方面非常透明,涉及科学家和其他利益相关者,共同定义对患者最有利的政策和建议。在美国,这一领域的发展势头强劲,而在欧洲,情况则不太明确和透明。欧盟AI法案是一套严格的通用法规,而不是针对医疗设备的具体规则。这两个司法管辖区的方法非常不同。
瑞士能否做得比欧盟更好,还是会尝试以瑞士方式复制欧盟的方法,考虑到其作为一个被欧盟国家包围的小国的地位?
由于被欧盟成员国包围,瑞士当然不能忽视欧洲的AI法规。根据瑞士决定监管的内容,可能会与其他法规(如欧盟和美国的法规)产生冲突。医学是一个国际领域,我们不能孤立自己。这是瑞士必须面对的另一个监管挑战。
反对监管的人认为,这可能会抑制创新。如何在保护人权和促进技术发展之间找到平衡?
在创新与安全(包括个人权利)之间找到平衡至关重要。每个国家都必须决定愿意承担哪些风险。瑞士也必须做出同样的决定,因为这些技术伴随着风险,其输出的准确性可能有所不同。例如,欧盟的法规不允许过多的风险承担,一些法律学者担心这可能会阻碍创新。而美国在数据保护等领域则更为宽松。
AI不仅带来风险,还提供了机会。您认为监管能否更好地利用这些机会?
是的,我确信良好的监管不仅能限制风险,还能促进有益的机会。这可以通过多种方式实现,例如投资新的软件和应用,或将技术更好地融入教育系统和社会。监管有不同的功能,不仅预防风险,还能创造机会。在医学领域,AI工具的准确性可能会不断提高,有可能支持甚至替代某些任务。这可以帮助医生和其他医务人员专注于更复杂的病例。根据AI替代的任务,某些(自我)监管可能需要调整以允许这些进步。由于AI的发展快速且在一定程度上不可预测,因此需要密切关注,以便识别监管漏洞并制定帮助减轻风险和利用机会的法规。
(全文结束)

