英国政府的新计划旨在通过人工智能(AI)促进创新,目标雄心勃勃。该计划依赖于更有效地利用公共数据,特别是最大化NHS持有的健康数据的价值。然而,这可能涉及到使用真实患者的健康数据,过去这一做法曾引发巨大争议,之前的尝试有时甚至接近灾难。
患者数据将会匿名化,但关于匿名性潜在威胁的担忧仍然存在。例如,使用健康数据引发了对商业利益获取数据的担忧。2014年崩溃的care.data项目也有类似的理念:在全国范围内共享健康数据,既包括公共资助的研究机构也包括私人公司。
由于未能充分沟通该项目更具争议性的元素,并未听取公众的担忧,导致该项目最终被搁置。最近,美国科技公司Palantir参与新的NHS数据平台也引发了谁可以或应该访问这些数据的问题。
新的努力旨在利用健康数据训练或改进AI模型,同样依赖于公众的支持才能成功。不出所料,在宣布这一计划后的几小时内,媒体和社交媒体用户就指责这是为了从健康数据中获利的一种方式。有头条新闻写道:“部长们考虑允许私营企业从NHS数据中获利以推动AI发展”。
这些回应,以及对care.data和Palantir的反应,反映了公众信任在政策设计中的重要性。无论技术变得多么复杂,这一点都是真实的——并且至关重要的是,随着社会规模的扩大,我们越来越难以看到或理解系统的每个部分时,信任变得更加重要。然而,判断我们应该信任谁以及如何建立信任可能是困难的,甚至是不可能的。无论是政府、公司还是熟人,我们每天都要做出这样的决定。
信任挑战促使我们称之为“信任度识别问题”,即确定谁值得我们信任源于人类社会行为的起源。问题是:任何人都可以声称自己值得信赖,但我们缺乏确切的方法来判断他们是否真的如此。
幸运的是,人类学、心理学和经济学的研究展示了人们——因此,像政治机构这样的组织——如何克服这个问题。这项研究被称为信号理论,解释了即使在交流个体之间存在冲突的情况下,信息传递(即从发送者到接收者的通信)是如何演变的。
例如,人们在不同群体间移动时可能会有理由谎报自己的身份。他们可能想隐藏一些不愉快的过去,或者声称自己是社区中某位富人或有权势者的亲属。Zadie Smith最近的小说《欺诈》虚构了这一流行主题,探索了维多利亚时代英格兰的贵族生活。
然而,有些品质是无法伪造的。一个骗子可以声称自己是贵族、医生或AI专家,但他们无意中发出的信号会逐渐暴露他们。一个假贵族可能无法有效地伪装自己的举止或口音(口音等信号对于熟悉它们的人来说很难伪造)。
虽然社会结构显然与两个世纪前不同,但问题的核心是相同的——我们认为解决方案也是如此。正如真正富裕的人有办法证明自己的财富一样,值得信赖的人或团体也必须能够表明他们是值得信任的。具体方法因情境而异,但我们认为政治机构如政府必须表现出愿意倾听并回应公众关切的态度。
care.data项目受到批评是因为它通过投递传单的方式宣传,且未提供退出选项。这未能向公众传递出一种真正希望减轻人们对个人信息被滥用或出售牟利的担忧的信号。
目前围绕使用数据开发AI算法的计划必须有所不同。我们的政治和科学机构有责任通过倾听公众意见,并通过这样做制定连贯的政策,以最小化个人风险的同时最大化所有人的潜在利益,来表明他们的承诺。
关键是投入足够的资金和努力,以展示与公众互动、解决他们关切的真诚动机。政府和科学机构有责任倾听公众的声音,并进一步解释他们将如何保护公众。仅仅说“相信我”是不够的:你必须证明你是值得信赖的。
(全文结束)

