随着医疗保健提供者及其供应商开发和实施自主人工智能和其他AI工具,他们需要充分了解HIPAA和其他法律下的数据隐私风险,法律公司Akerman LLP的律师Jordan Cohen表示。
“如果你超出了允许的使用范围,那么从技术上讲,如果涉及受保护的健康信息,这可能被视为可报告的数据泄露,”他在接受信息安全部门媒体集团(Information Security Media Group)采访时表示。
他补充说,受保护组织和其他受HIPAA监管的公司在实施自主AI时应考虑的许多步骤“实际上并不是特定于AI的”。
“数据流清单将变得非常重要。因此,绘制并记录数据的摄入、处理、存储方式,数据如何离开您的系统,供应商如何接触数据以及他们对这些数据做了什么,这些都将至关重要,”他说。
“这些是我们多年来一直在讨论的做法”,但在自主AI和其他AI部署的时代,它们变得更加重要,他指出。
在接受信息安全部门媒体集团的音频采访时(请在图片下方点击音频链接),Cohen还讨论了以下内容:
- 自主AI在医疗临床和行政用途中最常见的应用,以及经常使用的PHI(受保护健康信息)、电子健康记录和其他数据类型;
- 在多个机构部署AI时需要考虑的法律和监管问题,包括美国食品药品监督管理局(FDA)、联邦贸易委员会(FTC)、HIPAA安全规则的潜在更新以及各州隐私法律;
- 其他关键的AI问题包括技术保障措施、事件响应监控、透明度和患者同意;
- AI在医疗保健和其他领域改善数据隐私和安全性的机会。
Cohen是Akerman LLP的合伙人,也是该事务所数字健康实践团队的负责人,他为涉及医疗保健提供者和其他医疗相关平台的交易提供建议。这包括就联邦和州隐私及数据安全事务提供法律顾问服务,确保遵守HIPAA的隐私、安全和数据泄露通知规则,以及遵守各州的数据泄露通知法律。他还就广泛的医疗监管事务提供指导,包括遵守反回扣法规(Anti-Kickback Statute)和斯塔克法(Stark Law)等反欺诈和反滥用法律。
【全文结束】

