克莱沃特公司(Clearwater)咨询与战略副总裁戴夫·贝利表示,医疗保健中的人工智能应用安全性和准确性完全取决于其周围的治理和信任框架。这一点在临床环境中尤为重要,因为错误或"幻觉"可能直接影响患者护理。
"在临床决策中任何自主使用人工智能的行为都可能非常危险,实施人工智能的组织需要建立相应流程,确保他们已对数据进行了测试并信任这些数据,"他说。
如果护士在电子健康记录中发现人工智能生成的临床摘要存在错误,必须有相应的流程和计划在可能造成危险医疗事故之前解决该问题。
"你如何应对这些问题?组织必须了解他们将如何使用[人工智能],特别是当他们最终不信任数据时,必须围绕这些不利事件制定计划,这一点极其重要。"
他还表示,为实施人工智能系统而建立治理机制是一回事,但管理技术及其使用生命周期中的治理和风险同样关键。
"系统上线后你该怎么办?"他问道,"将需要利用新兴技术来监控模型、结果,并在模型发生漂移或产生'幻觉'时帮助组织提供预警指标。"
在本次采访中,贝利还讨论了以下内容:
- 医疗保健中人工智能应用涉及的不断演变的威胁和风险;
- 人工智能在改善医疗保健网络安全中的应用及相关风险;
- 医疗保健行业实体需要考虑的其他重要人工智能信任和治理问题。
贝利是克莱沃特公司的咨询与战略副总裁,负责为全国医疗保健组织提供企业级网络安全和风险管理服务。他拥有超过24年的网络安全经验,其中14年专注于医疗保健领域。此前,贝利曾在美国空军担任通信和信息官13年,领导职务遍及五角大楼、国内基地和海外行动。
【全文结束】

