在近年快速发展的"女性健康科技"(femtech)行业中,众多女性通过新技术监测和管理自身健康。该领域产品涵盖经期追踪器到AI辅助癌症诊断等广泛应用。尽管这些创新带来诸多益处,但也引发关于隐私保护、算法偏见、监管机制及医疗技术伦理影响的深刻疑问。
伊利诺伊大学癌症中心成员萨拉·格尔克正致力于解决这些问题。作为健康法律学者与生物伦理学家,格尔克专注于人工智能与数字健康安全研究。她与萨拉·拉扎、埃里克·布雷斯曼和卡梅尔·沙查尔共同撰写的论文《女性健康与医疗中技术的有效监管》发表于《英国医学杂志》(BMJ),揭示了女性健康科技领域数据隐私保护法规的缺失——大量健康应用在收集个人敏感信息时缺乏有效监管。
格尔克的工作横跨法律、伦理与医学领域,强调专家早期协作对改善患者结局的重要性。"当前AI与数字健康技术发展迅猛,我本人非常支持技术创新,"格尔克表示,"但同时必须建立法律与伦理保障机制。我们需要在系统开发和部署初期就融入伦理设计,审慎考量潜在伦理问题。"
女性健康科技产品收集高度敏感信息,但相关企业及数据通常不受美国《健康保险流通与责任法案》(HIPAA)保护。相较之下,欧盟《通用数据保护条例》等监管框架提供了更完善的保护机制。"许多面向消费者的女性健康APP不在HIPAA保护范围内,这意味着其收集的高度敏感数据面临泄露风险,"格尔克指出,"根据所在地及用户协议条款,您的经期、性行为和生育信息可能在您未充分知情的情况下被共享或出售,这尤其令人担忧,因为这些通常是人们希望保密的信息。"
AI系统的偏见问题持续存在,根源在于训练数据不完整或缺乏代表性。若训练数据不能真实反映目标人群特征,将加剧现有医疗不平等。"当训练数据不具备代表性时,AI工具极易产生偏见,"格尔克解释道,"例如主要基于浅色皮肤图像训练的皮肤癌检测AI,很可能无法有效识别深色皮肤人群的病变。这不仅是技术问题,更可能导致特定群体漏诊或误诊,造成严重健康后果。"
格尔克主导多项关于AI辅助手术和结肠镜检查的伦理与法律研究,致力于解决包括责任界定、AI工具与临床医生互动等新兴法律问题。"我们必须审慎思考AI可能导致的过度诊断或医生技能退化,"她表示,"这些是全新挑战,目前相关判例有限。当临床医生使用AI出现问题时,责任归属尚不明确,法律规范正随技术发展而演进。"
在癌症中心,格尔克定期举办跨学科会议,邀请医疗及癌症领域专业人士共同开发更安全的临床AI工具。她计划于2027年春季在伊利诺伊大学厄巴纳-香槟分校主办下届会议。"各方常各自为政,但关键在于从初期就汇集开发者、临床医生、伦理学家和律师共同探讨问题,"格尔克强调,"这种协作有助于创建更安全有效的工具,并在各方间建立信任。"
出版详情
萨拉·拉扎等,《女性健康与医疗中技术的有效监管》,《英国医学杂志》(2025)。DOI: 10.1136/bmj-2025-086300
期刊信息:英国医学杂志 (BMJ)
关键医学概念
过度诊断 结肠镜检查
临床类别
女性健康 妇产科学
由伊利诺伊大学厄巴纳-香槟分校癌症中心提供
【全文结束】

