随着医疗机构及其供应商开发和实施主动性人工智能(Agentic AI)及其他AI工具,他们需要充分理解《健康保险可携性和责任法案》(HIPAA)和其他法律下的数据隐私风险。Akerman LLP律师事务所的律师Jordan Cohen在接受媒体采访时说:“如果你超出了允许使用的范围,那么从技术上讲,如果涉及受保护的健康信息(PHI),这可能被视为可报告的违规行为。”
Cohen表示,许多被覆盖的组织和其他受HIPAA监管的公司在主动性AI实施中应考虑的步骤“实际上并非特定于AI”。他说:“数据流清单将非常重要。因此,绘制和记录你如何摄取数据、处理数据、存储数据、数据如何离开你的系统、供应商如何接触这些数据以及他们对这些数据做了什么,将是至关重要的。”他补充说:“这些是我们多年来一直在讨论的做法”,但在主动性AI和其他AI部署的时代,它们变得更加重要。
在这次与信息安全媒体集团(Information Security Media Group)的音频采访中,Cohen还讨论了以下内容:
- 在医疗保健领域,主动性AI在临床和行政用途中最常见的应用,以及经常使用的PHI、电子健康记录(EHR)和其他数据类型;
- 部署AI时需考虑的法律和监管问题,包括美国食品药品监督管理局(FDA)、联邦贸易委员会(FTC)、HIPAA安全规则的潜在更新以及州隐私法;
- 其他需要考虑的关键AI问题,包括技术保障措施、事件响应监控、患者的透明度和同意;
- AI在改善医疗保健及其他领域数据隐私和安全方面的机会。
Cohen是Akerman LLP的合伙人,也是该公司数字健康业务团队的负责人。他为涉及医疗服务提供者及其他医疗相关平台的交易提供咨询服务。这包括提供与联邦和州隐私及数据安全事项相关的法律建议,包括遵守HIPAA的隐私、安全和违规通知规则,以及遵守各州的违规通知法律。他还就广泛的医疗监管事项提供指导,包括遵守反回扣法规和斯塔克法(Stark Law)。
(全文结束)

