萨姆·阿尔特曼警告ChatGPT心理治疗缺乏保密性No Confidentiality in ChatGPT Therapy, Warns Sam Altman

环球医讯 / AI与医疗健康来源:techstory.in美国 - 英语2025-07-31 15:34:08 - 阅读时长2分钟 - 747字
OpenAI首席执行官萨姆·阿尔特曼警告称,用户通过ChatGPT进行的心理咨询对话不受法律保密保护,可能被法庭强制披露。他强调当前法律框架尚未明确AI对话的隐私边界,尤其在涉及敏感心理健康信息时存在风险。此观点呼应了OpenAI与《纽约时报》诉讼中关于用户聊天记录的法律争议,并引发对数字隐私保护的广泛讨论。
健康心理健康AI心理治疗ChatGPT隐私泄露法律风险隐私保护数据争议法律框架
萨姆·阿尔特曼警告ChatGPT心理治疗缺乏保密性

OpenAI首席执行官萨姆·阿尔特曼近日在Theo Von主持的播客《This Past Weekend》中发出警告:数百万将ChatGPT视为“数字心理医生”的用户,可能低估了隐私泄露的法律风险。

阿尔特曼指出,尽管许多用户向AI倾诉情感问题、心理健康困扰甚至最私密的经历,但这些对话并不具备传统心理咨询师与患者之间享有的法律特权保护。他举例称:“人们会和ChatGPT倾诉人生中最私密的事情,尤其是年轻人常将其当作心理医生或人生教练。”然而,与医生-患者或律师-客户之间的保密协议不同,目前法律尚未确立对AI聊天记录的同等保护。

这一问题并非理论空谈。OpenAI正面临纽约时报发起的诉讼,法院裁定该公司需保留全球数亿用户的聊天记录作为证据,仅企业客户对话享有豁免权。阿尔特曼承认,这种法律真空可能阻碍AI工具的广泛应用:“这种情况非常糟糕。我们应当为AI对话建立类似心理咨询的隐私保护体系。”

隐私风险在数字权利变化背景下尤为突出。随着罗伊诉韦德案被推翻,许多女性转向加密健康应用保护生育数据,而AI对话中的敏感信息同样可能成为法律调查的突破口。此外,执法部门频繁通过传票获取用户数据,当前法律框架下,用户可能在不知情中将自身置于法律风险之中。

阿尔特曼同时认可用户对隐私的担忧具有合理性,他呼应主持人Theo Von不使用ChatGPT的顾虑称:“在法律明确隐私边界前,谨慎使用是明智的选择。”值得注意的是,AI行业的数据争议不仅涉及用户对话,还包括训练数据来源合法性及模型输出的可追溯性。

目前,除非建立明确法律框架保护AI对话,否则用户的深夜倾诉可能成为呈堂证供。正如阿尔特曼所言:“AI心理医生或许正在默默记录你的人生故事,而这些记录可能流向任何意想不到的地方。”

【全文结束】

大健康

猜你喜欢

  • 如何通过互动且有意识的AI采用在制药行业影响客户体验如何通过互动且有意识的AI采用在制药行业影响客户体验
  • 3种AI代理重塑医疗预先授权的方式及其为何仍需人工干预3种AI代理重塑医疗预先授权的方式及其为何仍需人工干预
  • 美国将联手科技巨头推出私人健康数据系统美国将联手科技巨头推出私人健康数据系统
  • 新合作将利用人工智能工具寻找ALS治疗靶点新合作将利用人工智能工具寻找ALS治疗靶点
  • 白宫宣布新健康数据追踪系统的细节白宫宣布新健康数据追踪系统的细节
  • App式关怀:为何南非人偏好远程医疗服务App式关怀:为何南非人偏好远程医疗服务
  • 免疫系统早期挑战扰乱口腔健康免疫系统早期挑战扰乱口腔健康
  • 以色列医院参与NASA和SpaceX任务研究微重力对疾病的影响以色列医院参与NASA和SpaceX任务研究微重力对疾病的影响
  • 行为经济学与心理健康行为经济学与心理健康
  • 克利夫兰阿尔茨海默病会议将提供早期检测教育与护理建议克利夫兰阿尔茨海默病会议将提供早期检测教育与护理建议
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康