简介
人工智能公司(尤其是OpenAI)因其生成式人工智能程序获得了广泛关注。例如,ChatGPT和Perplexity能够生成类似人类语言的文本回复,DALL-E则可根据文字提示生成各类图像——无论是写实、几何还是抽象风格。然而,人工智能的应用范围远不止于语言和图像聊天机器人。本指南深入探讨了生成式人工智能的广泛应用,特别聚焦于医疗健康与研究领域。
纽约大学朗格尼医疗中心提供安全的生成式人工智能使用选项:
- UltraVioletAI是纽约大学朗格尼医疗中心全新升级的生成式人工智能工具,为社区提供私有、安全且符合HIPAA(美国健康保险流通与责任法案)规定的类ChatGPT体验。该工具支持访问新型模型、上传文档、整理对话记录等功能。
- copilot.microsoft.com具备安全性但不符合HIPAA规定,前提是您需在右上角使用Kerberos账号登录。这意味着您可使用私人或专有信息,但绝对不可用于任何受HIPAA保护的信息处理。
提示词共享
请在纽约大学朗格尼提示词交换平台分享实用提示词,该平台旨在促进社区共享提示词经验并探索AI系统的新交互方式。
法律合规要求
请务必确保生成式人工智能应用符合现行法规与政策:
- 禁止使用任何公共生成式AI应用处理临床文档(如病历记录或信函)。
- 禁止将任何受保护健康信息(含去标识化数据)或其他法律保护信息输入公共生成式AI应用。
- 禁止将临床或人体受试者研究数据(含去标识化数据)用于公共生成式AI应用。
- 不得向公共生成式AI应用披露机密商业信息。
- 禁止允许公共生成式AI应用记录或上传内部会议等非公开活动内容。
- 不得依赖生成式AI应用或其结果开展工作,您需对所有生成内容进行独立验证。
补充说明
- 纽约大学朗格尼生成式AI私有环境采用滚动准入制,以保障用户体验。
- 接入优先级依据创新/研究项目、导师指导探索项目或独立探索项目身份确定。
- 用户将通过邮件接收准入通知,需签署数据使用协议并查阅接入管理实例的详细指南。
使用规范
- 合规AI工具:申请使用指定纽约大学朗格尼GPT平台的流程指南。
- 数据安全:将敏感数据导入AI程序前须获得机构许可。
- 禁用非授权工具:为确保数据安全与所有权,禁止使用聊天机器人处理纽约大学朗格尼医疗中心工作。
- 探索实践:了解纽约大学朗格尼医疗中心如何应用生成式人工智能。
关于纽约大学朗格尼医疗中心人工智能的咨询,请发送邮件至:daait@nyulangone.org
下载便捷速查指南:
- 人工智能速查指南:快速获取AI工具、服务及规范信息
【全文结束】