人工智能会让人类研究失去人性吗?
如果你是人类,你极有可能曾参与过人类受试者研究。或许你参加过临床试验,填写过健康习惯调查问卷,或在大学时为换取20美元参与过研究生的实验。又或许你本人作为学生或专业人士开展过研究。
核心要点
- 人工智能正改变人类研究方式,但保护受试者的监管框架未能同步更新
- 人工智能有潜力提升医疗效率,但前提是构建过程具备适当监管
- 我们的个人数据正以未知或未经同意的方式被使用,边缘化群体承担最大风险
人类受试者研究(HSR)顾名思义是针对人类开展的研究。联邦法规将其定义为涉及活体个体、需通过互动获取信息或生物样本的研究,也涵盖"获取、使用、研究、分析或生成"可能识别受试者身份的私密信息或生物样本的研究。该领域主要分为社会行为教育类与生物医学类两大范畴。
开展人类受试者研究必须获得机构审查委员会(IRB)批准。IRB是专为保护人类受试者而设的科研伦理委员会,任何承接联邦资助研究的机构都必须设立。
人类受试者研究保护机制并非与生俱来。20世纪充斥着骇人听闻的研究滥用案例。1972年塔斯基吉梅毒研究解密引发的公众抗议,直接促成了1979年《贝尔蒙特报告》的发布。该报告确立了三大伦理原则:尊重个体自主权、将潜在危害降至最低并最大化受益、公平分配研究风险与收益。这成为人类受试者保护的联邦政策基础——即规范IRB运作的《共同规则》。
时过境迁,人工智能正在彻底改变人类研究方式,但伦理与监管框架未能与时俱进。
塔米科·伊藤作为人类受试者研究保护与AI治理领域的认证IRB专家(CIP),正致力于改变这一现状。她创立了科技与人类受试者研究咨询公司(TechInHSR),为审查涉AI研究的IRB提供支持。近期我与伊藤探讨了AI如何颠覆研究格局,以及其在人类受试者研究中最大的机遇与风险。以下为经适当编辑的访谈实录。
您拥有逾二十年人类受试者研究保护经验。AI的广泛采用如何改变了这一领域?
AI彻底颠覆了传统研究模式。过去我们通过研究个体推导群体规律,如今AI却从群体级数据中提取模式来决策个体事务。这种转变暴露了IRB体系的漏洞,因为我们的工作核心依据仍是近半个世纪前的《贝尔蒙特报告》。该报告关注的是真实人体而非"人类数据主体"。当前AI聚焦于人类数据主体——他们的信息常在不知情情况下被纳入AI系统。如今海量个人数据被多家企业反复收集利用,往往未经同意且几乎缺乏监管。
能否举例说明深度应用AI的人类受试者研究?
在社会行为教育研究领域,常见案例是利用学生数据训练模型以优化教学方法。医疗领域则用电子病历训练预测疾病风险的模型。AI更彻底改变了我们对可识别数据与再识别数据的认知。
当前许多机构声称数据"已匿名化"而规避监管,依据仍是过时的可识别性定义。
这些定义源自何处?
医疗领域基于HIPAA(美国健康保险流通与责任法案)。该法律制定时并未预见当今的数据应用方式,尤其未考虑AI环境。其核心逻辑是:若移除特定数据字段,个体便难以被重新识别——但我们现已知这并不成立。
AI能为研究流程带来哪些改进?许多人可能不了解IRB保护的必要性,使用AI的依据是什么?
负责任构建的AI确有提升医疗质量与研究效率的潜力。设计精良的工具能更早发现问题,例如通过影像诊断识别脓毒症或癌症迹象,因其能将结果与专家临床判断进行比对。
但据我观察,当前多数工具设计欠妥,后续应用规划也缺乏深思,这已造成实际伤害。
我正探索如何用AI优化工作流程:它能处理海量数据、减少重复性任务,提升效率。只要负责任地使用,AI确有辅助价值。例如可加速IRB申请流程,委员会成员可用它分析风险等级与警示信号,优化与研究团队的沟通。AI潜力巨大,但关键在于构建与使用方式是否负责。
您认为AI在人类受试者研究中近期最大的风险是什么?
首当其冲的是"黑箱决策"问题:我们无法知晓AI的结论生成机制,这使合理决策变得困难。
即便AI可解释性有所提升,首要伦理困境仍是数据收集过程本身:我们是否获得授权?是否取得许可?是否有权采集甚至商品化这些数据?
这引向另一重大风险——隐私保护。相较于美国,他国在隐私权方面可能更完善。而美国公民缺乏充分隐私权与数据自主权,无法决定数据如何被收集、使用及共享。
所有数据都具可识别性,这极大增加了数据主体的风险。研究表明,仅凭MRI扫描即可重新识别个体,即便没有面部信息、姓名等其他标识;通过智能手表步数结合地理位置数据也能实现身份定位。
当前最值得关注的是"数字孪生体"概念:它是由个人数据构建的详细数字分身。医疗记录、生物特征、社交媒体、运动轨迹、在线行为乃至语音样本都可能被纳入。AI系统整合所有行为数据创建与你高度相似的模型,这既可预测你对药物的反应,也可能在未经许可时模仿你的声音或实施其他行为。这种未经你授权创建的数字孪生体在技术上等同于你,但你对其毫无控制权。隐私领域对此监管不足,常以"用于改善健康"为由合理化其应用。
长期风险有哪些?
IRB原则上不得考量长期影响或社会风险,仅关注个体层面的直接影响。但在AI领域,真正的危害恰恰在于歧视、不平等、数据滥用等系统性社会问题。
另一个风险涉及数据质量。IRB必须遵循公平原则,确保研究收益与风险均等分配。但现实是边缘化群体的数据常在未经同意时被用于训练工具,当这些工具因偏见产生错误时,他们却承担不成比例的伤害。
他们既未获得工具优化后的实际收益,却要承受全部成本。
恶意行为者是否可能利用这些数据实施针对性攻击?
完全可能。由于隐私法律缺失,数据在缺乏监管的情况下被共享甚至出售给恶意方,这将直接危害民众。
IRB专业人士如何提升AI素养?
关键在于认识到:AI素养不仅关乎技术理解。知晓"如何运作"远不如懂得"该提出哪些问题"重要。
我创建了IRB审查AI研究的三阶段框架,帮助委员会评估不同开发阶段的风险,并理解项目具有循环性而非线性特征。通过调整传统工作模式,我们方能有效审查循环式研究项目。
随着AI幻觉率降低及隐私问题解决,人们会更接纳AI在人类研究中的应用吗?
存在"自动化偏见"现象:我们倾向于盲目信任计算机输出。即便非AI工具,我们也习惯轻信计算结果而不加质疑。加之当前快节奏环境——尤其在临床场景中——医护人员时间紧迫,很难复核AI输出的准确性。
IRB审查人员同样面临压力。若上级要求"每日完成固定任务量",而AI能加速流程且关乎工作考核,人们更可能屈服于压力直接采纳结果而不复核。
理想中AI幻觉率理应持续下降?
所谓"AI改进"本质是:当模型获得更多此前忽略群体的数据时,偏见与幻觉才会减少。这意味着企业宣称"获取更多数据"时,极可能未经同意从人们意想不到的渠道抓取信息。
这绝非进步,而是变本加厉的剥削。真正的改进需要伦理化的数据获取机制:确保数据收集使用有明确边界、惠及全民并获有效授权。我认为这将依赖法律规范、行业透明度,但更需临床医生的推动。
开发工具的企业正游说立法,试图将事故责任完全转嫁给终端用户——即医护人员或患者。
若我身为医生且需为AI错误担责,我绝不会采用它——没人愿意为技术失误背锅。对此我始终保持审慎。
请描述最坏情景及避免方法
一切始于研究阶段。AI最糟情景是:它主导我们人生的决策——工作、医疗、贷款、购房。当前所有系统均基于有偏数据构建,且普遍缺乏监管。
IRB主要监管联邦资助研究。但AI研究常使用未经同意的人类数据,IRB往往直接豁免审查或根本不介入。这使人类受试者应有的保护机制形同虚设。
同时,人们过度信任这些系统而停止质疑输出。我们在依赖并不真正理解的工具,从研究阶段起就将不平等嵌入日常系统。公众普遍信任研究结果,不会质疑由此衍生并投入实际应用的工具。这将持续喂养不平等、不公正与歧视,最终伤害数据代表性不足的群体。
【全文结束】

