生成式人工智能(AI)在医疗保健领域的应用是一个伦理雷区。世界卫生组织(WHO)在最近的一份报告中明确指出,生成式AI在医疗保健领域的应用前景广阔,包括更好的诊断和临床护理、以患者为中心的应用、文书工作和行政任务、医学和护理教育、科学研究、医学研究和药物开发。然而,该报告也警告说,生成式AI系统存在许多伦理问题,这些问题对医疗保健系统和社会都构成风险。
其中一些伦理问题与大科技公司(如亚马逊、Alphabet、苹果、Meta和微软)如何侵入医疗保健领域以解锁这个11万亿美元的市场机会有关。问题在于,这些公司在过去的二十年里一直在争夺个人、行为和生物特征数据,而且往往是通过非常普遍、无处不在和日常的方式进行的。大科技公司建立了一些“数据飞地”,以确保未来行为市场的持续增长,任何类型的数据都被转化为有价值的资产。
鉴于医疗保健对大科技公司的吸引力,我们应该对生成式AI在这个领域的推出和扩展感到非常担忧。健康是一项基本人权,也是一种公共利益,因此需要得到保护。然而,许多在医疗保健领域发现的生成式AI工具和应用程序都是围绕大科技公司的基础AI模型、相关服务和数据生态系统构建的。这不仅巩固了大科技公司在市场上的强大地位,将其技术和数据生态系统整合到公共和私人医疗保健中,还帮助它们收集更多数据,从监控“准确”转变为监控资本主义,创造新的信息、知识和数据。事实上,没有任何用户能免受数据操纵的影响。
随着大科技公司获得越来越多的市场力量,数字监控和数据资本主义已成为生活的普遍特征,社会正义问题也变得越来越严重。数据正义是数字化、数据化和AI化的世界中的社会正义,这些问题包括公平、访问、仁慈、民主、团结、包容和社会危害。在医疗保健领域,AI带来了许多与年龄、性别、性取向、文化身份、种族特征、识字能力、残疾和健康状况相关的风险、危害和不平等。然而,受影响的人或社区对那些创造这些社会不公正现象的战略、技术和公司几乎无能为力,甚至很少有人知道这些不公正现象是如何被创造出来的,或者这些不公正现象来自哪里。
监管措施如何?
通过一系列“里程碑”式的法规和措施,欧盟试图干预并找到平衡点。一方面,欧盟希望从数字健康和AI中获得最大价值,并让(更多)数据在欧洲范围内流动,以用于研究、创新和商业。另一方面,欧盟实施了某些禁令和限制,以保护公民免受AI的风险和危险,主要是通过禁止不可接受的用途并对高风险类别实施限制。
然而,《欧盟AI法》留下了太多漏洞,尤其是在医疗保健方面。更重要的是,大科技公司已经利用其关系,争取在制定将管理生成式AI模型的实践准则中占有一席之地。共同创建将使新的欧盟AI办公室从一开始就处于不利地位。此外,《数字服务法》给予欧盟公民更好的基本权利保护,特别是控制和选择方面。尽管该法案可能有助于恢复民主并拯救欧洲免受监控资本主义的侵害,但没有人真正知道这项法案在现实中会产生什么影响。
包括国际特赦组织和民主与技术中心在内的倡导团体已经指出了这些新法规的根本缺陷,认为这些步骤不会停止监控或数据资本主义,也无法在所有情况下保障数据正义。如果欧盟在GDPR违规方面的历史可以作为参考——科技公司通过欺骗设计绕过合法利益问题,截至2024年3月1日,仅发出了2086笔罚款,总计44.8亿欧元,而这些罚款对于大科技公司来说微不足道——那么大科技公司在追求AI支持的监控资本主义时,实际上不必担心太多。
随着欧盟的新法规在未来几年全面生效,数据正义问题将不可避免地涌现。然而,没有任何领域或市场是静态的。这一过程中的失误将引发对新法规或现有法规修正的需求。
为了保护4.5亿公民的健康数据,恢复健康作为一项人权和公共利益的地位,欧洲监管机构必须更加有力和迅速地行动,将宝贵的健康数据从大科技公司的强大掌控中移出,远离其资本利益。虽然世界卫生组织是对的,生成式AI在医疗保健领域确实有许多前景,但这片伦理雷区需要更多的政治意愿和更少的大科技公司的参与来导航。
(全文结束)

