专家警告:不要与AI聊天机器人分享过多个人信息Why you should never ask AI medical advice and 9 other things to never tell chatbots

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2025-01-01 16:00:00 - 阅读时长2分钟 - 719字
尽管AI聊天机器人看起来像是可靠的智能助手,但专家警告用户不要与其分享过多个人信息,特别是医疗信息。调查显示,五分之一的美国人曾向AI寻求健康建议,而大约25%的美国人更倾向于使用聊天机器人而非进行治疗。
健康建议医疗信息AI聊天机器人HIPAA规定敏感数据隐私保护
专家警告:不要与AI聊天机器人分享过多个人信息

尽管AI聊天机器人看起来像是可靠的智能助手,但专家警告用户不要与其分享过多个人信息,尤其是医疗信息。

克利夫兰诊所最近的一项调查数据显示,五分之一的美国人曾向AI寻求健康建议,而去年Tebra发布的调查统计发现,大约25%的美国人更倾向于使用聊天机器人而非进行治疗。

然而,专家们警告用户不要与AI聊天机器人过度分享信息,特别是在涉及医疗信息时。

据《今日美国》报道,人们应避免向AI透露医疗和健康数据,因为这些AI并不符合《健康保险可携带性和责任法案》(HIPAA)的规定。

由于像ChatGPT这样的聊天机器人不符合HIPAA规定,它们不应在临床环境中用于总结患者记录,也不应访问敏感数据。

也就是说,如果你只是想快速获得答案,请务必省略你的姓名或其他可能被利用的识别信息,《今日美国》报道说。

该媒体还警告称,明确内容和非法建议都是禁止的,上传他人信息也是不允许的。

“记住:你写给聊天机器人的任何内容都可能被用来对付你,”网络安全公司卡巴斯基的斯坦·卡明斯基此前在接受《太阳报》采访时说。

登录凭据、财务信息、安全问题的答案以及你的姓名、电话号码和地址也绝不应与AI聊天机器人共享。这些敏感数据可能会被恶意行为者利用。

“不要将密码、护照或银行卡号、地址、电话号码、姓名或其他属于你、你的公司或客户的个人数据泄露给AI聊天,”卡明斯基继续说道。“你可以在请求中用星号或‘已删除’来代替这些信息。”

关于公司的机密信息也是一个主要的隐私失误,“你可能会有强烈的诱惑去上传工作文档,以获取执行摘要,”卡明斯基说。“但是,随意上传多页文档可能会泄露机密数据、知识产权或商业秘密,例如新产品的发布日期或整个团队的薪资表。”


(全文结束)

大健康

猜你喜欢

  • 气候变化是否正在悄悄破坏你的2025年健康目标?气候变化是否正在悄悄破坏你的2025年健康目标?
  • 生物识别技术成为可信患者身份验证的关键组成部分生物识别技术成为可信患者身份验证的关键组成部分
  • 研究发现用于评估生物年龄和寿命的最佳AI模型研究发现用于评估生物年龄和寿命的最佳AI模型
  • 人工智能正在改变医疗保健:从癌症诊断到行政管理人工智能正在改变医疗保健:从癌症诊断到行政管理
  • 牙科人工智能协会引发全球范式转变牙科人工智能协会引发全球范式转变
  • 2024年最佳八大区块链创新:超越加密货币2024年最佳八大区块链创新:超越加密货币
  • 2024年关于性健康的五个有趣发现2024年关于性健康的五个有趣发现
  • 这项新抗生素研究揭示了它如何影响老年人的大脑健康这项新抗生素研究揭示了它如何影响老年人的大脑健康
  • CIO拉什米·库马尔谈美敦力的科技赋能医疗之路CIO拉什米·库马尔谈美敦力的科技赋能医疗之路
  • 性别平等:一个也影响心理健康的挑战性别平等:一个也影响心理健康的挑战
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康