黑客可以利用AI操纵某些健康应用生成和共享的数据,降低数据的准确性和完整性,网络安全公司Aplite的创始人兼管理总监Sina Yazdanmehr和IT顾问Lucian Ciobotaru表示。两人最近领导了一个涉及Google Health Connect的研究项目。在这个项目中,Yazdanmehr和Ciobotaru创建了一种恶意软件,该软件从Google Health Connect收集数据并发送到一个基于恶意AI的应用。AI根据用户的医疗状况定制虚假数据,例如为糖尿病管理应用的用户提供不正确的血糖读数。Google Health Connect结合了用户健身和健康应用的数据,并在他们的Google Fit仪表板上显示共享的健康应用信息。
这种操纵使恶意AI应用能够在用户不知情的情况下,引导健康和健身应用的输出,建议错误的治疗和推荐,研究人员在接受信息安全媒体集团采访时说。虽然Aplite的项目涉及Google Health Connect数据,但这种由AI驱动的数据操纵是任何医疗应用或设备的潜在问题,研究人员表示。
“我认为盲目信任应用——甚至是连接到应用的设备——是一个巨大的风险,因为医生很难反驳患者每天看到的东西,”Ciobotaru说。为了防止涉及AI驱动的医疗误导信息的事故,技术开发者、患者和医疗保健提供者验证用于可能做出健康相关决策的数据来源至关重要。“始终检查数据来源,确保你接收和消费的数据来自可信的来源和应用,”Yazdanmehr说。总之,“我们应该使这个环境安全可靠,让每个人都能无忧无虑地使用。”
Google Health没有立即回应信息安全媒体集团关于Yazdanmehr和Ciobotaru研究结果的评论请求。在这次与信息安全媒体集团的音频采访中,Yazdanmehr和Ciobotaru还讨论了:
- 他们研究发现的详细结果;
- 恶意AI对患者安全和福祉的潜在风险;
- 如何减少恶意使用AI影响健康应用和设备的风险。
Yazdanmehr是Aplite的创始人,拥有超过十年的经验,担任IT安全顾问和研究员。他领导了各种项目,从实践评估到战略安全计划,并为包括财富500强公司在内的多个行业提供咨询服务。Ciobotaru是Aplite的IT安全顾问,专注于渗透测试和漏洞管理。他是一名医学毕业生,选择成为一名网络安全专业人士,目标是使医疗基础设施更安全。
(全文结束)

