在一份新的特别报告中,研究人员讨论了大型语言模型(LLMs)的网络安全挑战,并强调了实施安全措施以防止这些模型在医疗保健系统中被恶意使用的重要性。该特别报告发表在《放射学:人工智能》杂志上。
大型语言模型,如OpenAI的GPT-4和谷歌的Gemini,是一种能够理解和生成人类语言的人工智能。这些模型迅速成为各种医疗领域中的强大工具,彻底改变了研究和临床实践。
这些模型被用于多种任务,例如临床决策支持、患者数据分析、药物发现以及通过简化医学术语来增强医疗提供者与患者之间的沟通。越来越多的医疗机构正在探索将高级语言模型整合到日常工作流程中的方法。
“尽管大型语言模型在医疗保健中的整合仍处于早期阶段,但其使用预计会迅速扩展,”瑞士巴塞尔大学医院诊断和介入神经放射科的神经放射学研究员Tugba Akinci D'Antonoli博士表示。
“这是一个越来越相关的话题,因此现在开始了解潜在的漏洞至关重要。”
将大型语言模型整合到医疗实践中为改善患者护理提供了重大机会,但这些机会并非没有风险。大型语言模型容易受到安全威胁,恶意行为者可以利用它们提取敏感的患者数据、操纵信息或使用数据中毒或推理攻击等技术改变结果。
AI固有的漏洞和威胁范围从在AI模型的训练数据中添加故意错误或恶意信息,到绕过旨在防止受限输出的内部安全协议,导致有害或不道德的响应。
非AI固有的漏洞超出了模型本身,通常涉及部署大型语言模型的生态系统。攻击可能导致严重的数据泄露、数据操纵或丢失以及服务中断。在放射学中,攻击者可以操纵图像分析结果、访问敏感的患者数据甚至安装任意软件。
作者警告说,在医疗保健特别是放射学中部署大型语言模型之前,必须仔细评估相关的网络安全风险,放射科医生在处理这些模型时应采取保护措施。
“放射科医生可以采取多种措施来防范网络攻击,”D'Antonoli博士说。
“当然有一些众所周知的策略,比如使用强密码、启用多因素认证,并确保所有软件都更新了安全补丁。但由于我们处理的是敏感的患者数据,医疗保健领域的风险(以及安全要求)更高。”
为了安全地将大型语言模型整合到医疗保健中,机构必须确保安全的部署环境、强大的加密以及对模型交互的持续监控。通过在开发、训练和部署阶段实施强有力的安全措施并遵循最佳实践,利益相关者可以帮助最小化风险并保护患者隐私。
D'Antonoli博士还指出,仅使用经过机构IT部门审核和批准的工具非常重要,任何用作这些工具输入的敏感信息都应匿名化。
“此外,持续进行网络安全培训也很重要,”她补充道。“就像我们在放射学中定期进行辐射防护培训一样,医院也应实施常规的网络安全培训,以保持大家的知情和准备状态。”
D'Antonoli博士认为,患者应该意识到这些风险,但不必过于担心。
“随着大型语言模型集成到医院系统中,潜在的脆弱性可能会增加,”她说。
“不过,我们并没有停滞不前。人们对此的认识越来越高,监管也越来越严格,并且在积极投资网络安全基础设施。因此,虽然患者应该保持知情,但他们也可以放心,这些风险正在被认真对待,并且正在采取措施保护他们的数据。”
(全文结束)

