人工智能会让人类研究变得"不那么人性化"吗
确保人类受试者测试合乎伦理经历了漫长历程,而人工智能可能让我们倒退。
by Shayna Korol
Shayna Korol是Vox"未来完美"栏目的研究员,该栏目致力于让世界变得更美好。她报道新兴技术、生物安全以及人类和动物健康领域。
作为人类,你很可能曾参与过人类主体研究。也许你参加过临床试验,填写过关于健康习惯的调查问卷,或者在大学时为了20美元参与过研究生的实验。又或者,你可能自己作为学生或专业人士进行过研究。
关键要点
- 人工智能正在改变人们进行人类研究的方式,但我们保护人类受试者的监管框架未能跟上步伐。
- 人工智能有潜力改善医疗保健并提高研究效率,但前提是它必须在适当监督下负责任地构建。
- 我们的数据正以我们可能不知情或未同意的方式被使用,而代表性不足的群体承担着最大的风险。
顾名思义,人类主体研究(HSR)是对人类受试者的研究。联邦法规将其定义为涉及活人的研究,需要与他们互动以获取信息或生物样本。它还包括"获取、使用、研究、分析或生成"可能用于识别受试者的私人信息或生物样本的研究。人类主体研究主要分为两大类:社会行为教育类和生物医学类。
如果你想进行人类主体研究,必须寻求机构审查委员会(IRB)批准。IRB是旨在保护人类受试者的研究伦理委员会,任何进行联邦资助研究的机构都必须设有IRB。
我们并非一直都有对研究中人类受试者的保护。20世纪充斥着骇人听闻的研究滥用。1972年塔斯基吉梅毒研究解密后引发的公众强烈反对,部分促成了1979年《贝尔蒙特报告》的发布,该报告确立了指导人类主体研究的几项伦理原则:尊重人的自主权、尽量减少潜在危害并最大化效益,以及公平分配研究的风险和回报。这成为人类受试者保护联邦政策的基础,即所谓的《共同规则》,该规则对IRB进行规范。
在阿拉巴马州梅毒研究中参与的男子合影。从1932年开始的40年间,实行种族隔离的南方医疗工作者对不知自己患有梅毒的黑人男子 withholding treatment( withholding treatment),以便医生追踪疾病的危害并在之后解剖他们的尸体。
如今已非1979年。现在,人工智能正在改变人们进行人类研究的方式,但我们的伦理和监管框架未能跟上。
Tamiko Eto是一位认证的IRB专业人士(CIP),也是人类主体研究保护和AI治理领域的专家,她正致力于改变这一现状。Eto创立了TechInHSR咨询公司,支持IRB审查涉及AI的研究。我最近与Eto就AI如何改变游戏规则以及在人类主体研究中使用AI的最大益处和最大风险进行了交谈。以下是我们经过适当编辑以提高清晰度和简洁度的对话。
问:你在人类主体研究保护领域拥有超过二十年的经验。人工智能的广泛应用如何改变了这一领域?
AI实际上完全颠覆了旧的研究模式。我们过去研究个体以了解总体情况。但现在AI从群体层面数据中提取巨大模式,并用这些模式对个体做出决策。这一转变暴露了我们在IRB领域存在的差距,因为驱动我们许多工作的正是《贝尔蒙特报告》。
该报告写于近半个世纪前,当时并未真正考虑我所谓的"人类数据受试者"。它考虑的是实际的物理个体,而不仅仅是他们的数据。AI更多关乎人类数据受试者;是他们的信息被拉入这些AI系统,通常未经他们的知情。因此,我们现在处于这样一个世界:大量个人数据被多家公司反复收集和再利用,通常未经同意,几乎总是缺乏适当监督。
问:能否举一个人类主体研究中大量涉及AI的例子?
在社会行为教育研究领域,我们会看到人们利用学生层面数据进行训练,以找出改进或增强教学或学习的方法。
在医疗保健领域,我们使用医疗记录来训练模型,以识别预测某些疾病或状况的可能方法。我们对可识别数据和可重新识别数据的理解也随着AI发生了变化。
目前,人们可以在没有任何监督的情况下使用这些数据,声称它是去标识化的,因为我们的可识别性定义已经过时。
问:这些定义来自哪里?
医疗保健定义基于HIPAA(《健康保险可携性和责任法案》)。
该法律并非围绕我们现在看待数据的方式制定,尤其是在AI世界中。本质上,它表示如果你删除该数据的某些部分,那么该个体可能不会被合理地重新识别——而我们现在知道这是不正确的。
问:AI在研究过程中可以改善什么——大多数人可能不太熟悉IRB保护存在的原因。使用AI的论据是什么?
AI确实在改善医疗保健、患者护理和研究方面具有真正潜力——如果我们负责任地构建它。我们知道,当负责任地构建时,这些设计良好的工具实际上可以帮助更早发现问题,比如检测败血症或通过影像学和诊断发现某些癌症的迹象,因为我们能够将结果与专家临床医生的做法进行比较。
尽管我在我的领域中看到,这些工具中的许多设计并不良好,也没有真正考虑其持续使用的计划。这确实会造成伤害。
我一直在关注如何利用AI改进我们的运营:AI帮助我们处理大量数据并减少重复性任务,这些任务使我们效率降低。因此,只要我们负责任地使用它,它确实有一些能力可以帮助我们的工作流程。
它可以加速研究的实际过程,例如为我们提交IRB申请。IRB成员可以使用它来审查和分析某些风险级别和警示信号,并指导我们如何与研究团队沟通。AI已经显示出巨大潜力,但同样,这完全取决于我们是否负责任地构建和使用它。
问:你认为在人类主体研究中使用AI面临的最大近期风险是什么?
近期风险是我们已经知道的事情:比如这些"黑箱"决策,我们实际上不知道AI是如何得出这些结论的,这将使我们很难就其使用做出知情决策。
即使AI在理解方面有所改进,我们现在面临的问题是最初收集数据的伦理过程。我们有授权吗?我们有许可吗?我们是否有权获取甚至将数据商品化?
因此,我认为这引出了另一个风险,即隐私问题。其他国家在这方面可能比我们做得好一些,但在这里,在美国,我们没有很多隐私权或自我数据所有权。我们无法决定如果收集我们的数据,如何收集、如何使用以及与谁共享——这本质上不是美国公民目前拥有的权利。
一切都是可识别的,因此增加了对我们使用其数据的人构成的风险,使其本质上不安全。有研究表明,仅通过MRI扫描就能重新识别某人,即使我们没有面部、没有姓名、没有任何其他信息,但我们可以通过某些模式重新识别他们。我们可以通过他们Fitbit或Apple Watch上的步数来识别人们,这取决于他们的位置。
我认为最近出现的最大问题是所谓的"数字孪生体"。它基本上是基于你的数据构建的你的详细数字版本。因此,它可能包含从不同来源获取的关于你的大量信息,比如你的医疗记录和可能存在的生物特征数据。社交媒体、运动模式(如果Apple Watch捕获)、在线行为(来自聊天、LinkedIn)、语音样本、写作风格。然后,AI系统收集你所有的行为数据,并创建一个复制你的模型,以便它可以做一些非常好的事情。它可以预测你对药物的反应。
但它也可以做一些坏事。它可以模仿你的声音,或者在未经你许可的情况下做事情。有一个你未授权创建的数字孪生体存在。从技术上讲,它就是你,但你对你的数字孪生体没有任何权利。这在隐私世界中没有得到应有的重视,因为它以"如果我们用它来帮助改善健康,那么它的使用就是合理的"为幌子。
问:长期风险呢?
我们现在确实无能为力。IRB从技术上讲被禁止考虑长期影响或社会风险。我们只考虑个体及其对个体的影响。但在AI世界中,最重要的危害将是歧视、不平等、数据滥用以及所有在社会规模上发生的事情。
"如果我是一名临床医生,知道我要对AI犯下的任何错误负责,我就不会接受它,因为如果它犯了错误,我不想承担责任。"
然后,我认为我们讨论的另一个风险是数据质量。IRB必须遵循正义原则,这意味着研究收益和危害应在人口中平等分配。但发生的情况是,这些通常处于边缘化的群体最终被用来训练这些工具,通常未经同意,然后当工具不准确并对他们有偏见时,他们不成比例地遭受苦难。
因此,他们没有获得实际推出并精炼的工具的任何好处,但他们却要承担所有成本。
问:坏人能否获取这些数据并用来针对人们?
绝对可以。我们没有足够的隐私法律,因此它在很大程度上不受监管,并与可能是坏人的人员共享,甚至可能卖给坏人,这可能会伤害人们。
问:IRB专业人士如何提高AI素养?
我们必须意识到的一件事是,AI素养不仅仅是理解技术。我认为仅仅了解它如何工作并不会让我们变得有素养,更重要的是知道我们需要提出什么问题。
我也有一些关于IRB审查AI研究的三阶段框架的工作。它旨在帮助IRB更好地评估在特定开发时间点发生的风险,然后理解它是循环的而非线性的。这是IRB看待研究阶段和评估研究的不同方式。因此,通过建立这种理解,我们可以审查循环项目,只要我们稍微改变我们习惯的做法。
问:随着AI幻觉率下降和隐私问题得到解决,您认为更多人会接受在人类主体研究中使用AI吗?
有一个概念叫做自动化偏见,我们倾向于信任计算机的输出。它不必是AI,但我们倾向于信任任何计算工具,不太会质疑它。现在有了AI,因为我们已经与这些技术建立了关系,我们仍然信任它。
此外,我们节奏很快。我们想快速完成事情,特别是在诊所中。临床医生没有太多时间,因此他们不会花时间检查AI输出是否正确。
我认为IRB人员也是如此。如果我的老板施压说"你每天必须完成X量的工作",而AI使工作更快且我的工作岌岌可危,那么我更可能感到压力,只是接受输出而不进行双重检查。
问:理想情况下,幻觉率会下降,对吧?
当我们说AI改进时,我们指的是什么?在我看来,当AI模型从它以前忽略或通常未接受训练的群体中获取更多数据时,它才会变得不那么有偏见或不那么产生幻觉。因此,我们需要获取更多数据以使其表现更好。
因此,如果公司说"好吧,让我们获取更多数据",那就意味着他们很可能会在未经同意的情况下获取这些数据。它只是从人们从未期望的地方抓取数据——而他们从未同意过。
我不认为这是进步。我不认为这说明AI有所改进,这只是进一步的剥削。改进需要这种有伦理的数据来源许可,必须使每个人受益,并对我们如何收集和使用数据有所限制。我认为这将通过法律、法规和透明度来实现,但更重要的是,我认为这将来自临床医生。
创建这些工具的公司正在游说,以便如果出现问题,他们不会承担责任。他们将把所有责任推给最终用户,即临床医生或患者。
如果我是一名临床医生,知道我要对AI犯下的任何错误负责,我就不会接受它,因为如果它犯了错误,我不想承担责任。我对此总是会有点谨慎。
问:请描述最坏的情况。我们如何避免这种情况?
我认为这一切都始于研究阶段。AI的最坏情况是它塑造关于我们个人生活的决策:我们的工作、我们的医疗保健、我们是否获得贷款、我们是否获得房屋。目前,一切都是基于有偏见的数据构建的,而且在很大程度上没有监督。
IRB主要针对联邦资助的研究。但由于这种AI研究使用未经同意的人类数据,IRB通常只给予豁免,甚至根本不经过IRB。它将绕过我们通常为人类受试者建立的所有这些保护措施。
同时,人们将如此信任这些系统,以至于他们将停止质疑其输出。我们依赖于我们不完全理解的工具。我们只是从研究阶段开始,进一步将这些不平等嵌入我们的日常系统中。人们在很大程度上信任研究。他们不会质疑从中产生的工具,这些工具最终被部署到现实环境中。它只是持续地助长持续的不平等、不公正和歧视,这将损害代表性不足的群体以及在开发时其数据不是主流的人群。
我对此总是会有点谨慎。
【全文结束】

