牛津大学的研究发现对患者保密性构成潜在风险。牛津大学的一项研究警告称,未经监管的人工智能聊天机器人可能在医疗保健领域引发伦理问题,并指出迫切需要保护数据隐私。牛津大学学者发表的一项研究发现,一些护理提供者一直在使用ChatGPT等生成式人工智能(Gen AI)聊天机器人为患者制定护理计划。
该研究首先由《卫报》报道,呼吁护理人员以及医疗保健行业的其他工作者谨慎使用未经监管的人工智能工具。研究表明,这可能导致医疗专业人员基于误导性、不准确或有偏见的信息采取行动,从而造成伤害。
随着数字化转型的加速,医疗保健行业继续探索人工智能技术的各种应用场景,这促使人们呼吁加强保护措施。
保护患者个人数据
根据Statista的数据,人工智能(AI)医疗保健市场预计将从2021年的110亿美元增长到2030年的1870多亿美元。医疗保健领域的这一增长可能会对医疗服务提供者、医院、制药和生物技术公司的运营方式产生重大变化。
牛津大学人工智能伦理研究所的早期职业研究员卡罗琳·格林博士在为该研究调查护理组织时表示,牛津大学的研究发现对患者保密性构成潜在风险。
她说:"如果你将任何类型的个人数据输入[生成式AI聊天机器人],这些数据将用于训练语言模型。这些个人数据可能会被生成并透露给其他人。"
鉴于这些安全问题,可以认为,仅依靠AI来制定患者计划可能导致低于标准的护理,使组织面临伦理困境。
在医疗保健环境中保护敏感数据至关重要,因此该研究呼吁医疗专业人员在使用AI时保持谨慎。与其仅用AI完成任务,不如以"副驾驶"的形式使用AI——增强治疗选择,利用其数据集支持员工在帮助患者时的决策。
除了这项研究外,牛津大学还在完成一个三阶段项目,旨在减少基于真实世界患者数据训练的AI健康预测模型中的偏见。由于AI是通过使用现有数据进行训练和测试的,如果其数据集不够广泛,其学习能力往往反映现有偏见。这可能导致基于个人数据的歧视,包括种族、性别和性取向等受保护特征。
人工智能伦理决策的重要性
尽管在医疗保健决策中使用AI不可避免地存在担忧,但该技术确实具有帮助改善患者治疗的巨大潜力。
根据英国国家医疗服务体系(NHS)的指导,AI目前用于X光和扫描分析,以支持放射科医生快速进行评估,使他们有更多时间直接与患者相处。
此外,它还可以通过远程监控技术为虚拟病房中的患者提供支持。NHS还指出,基于AI的技术也用于增强健康和护理治疗决策——这意味着专业人员将对患者治疗做出最终决定,但会考虑AI的输出结果。
AND Digital集团交付主管斯图尔特·芒顿表示:"由于一线工作人员压力巨大,在医疗保健行业采用AI的理由很有说服力,但这项研究再次提醒我们,允许未经检查的技术为患者提供建议所伴随的风险。"
"事实上,从长远来看,AI总体上将为医疗专业人员带来巨大好处,但这一需求需要与减轻错误、网络风险和隐私担忧相平衡。"
近几个月来,一些大型科技公司致力于认识到AI在医疗保健行业中的潜力。特别是,ServiceNow最近倡导使用伦理AI系统来改善患者治疗结果,并向工作人员提供信息以改善护理并降低患者再入院率。
同样,IBM和勃林格殷格翰在2023年底达成合作,利用基础模型来促进新型候选抗体的发现,用于开发高效治疗药物。
人们希望这一创新解决方案能够帮助大幅改善全球患者的治疗结果。
【全文结束】

