美国人工智能公司OpenAI健康AI主管卡兰·辛格哈尔驳斥了一条现已删除的X平台(前身为Twitter)帖子,该帖声称"ChatGPT将不再提供医疗或法律建议"。原帖作者可能误解了OpenAI在10月下旬更新的使用政策,该政策明确规定禁止将服务用于"需要专业执照的定制化建议,例如在无持证专业人士适当参与情况下的法律或医疗建议"。但辛格哈尔指出,此项条款并非新规,始终存在于OpenAI服务条款中,此前仅归类于开发者子章节。
除上述说明外,该政策明确禁止用户在无持证专家指导的情况下使用ChatGPT。这意味着AI仍会提供医疗或法律建议,但用户需自行寻找持证专业人士验证答案并协助理解。辛格哈尔在帖文中强调:"ChatGPT从未替代专业建议,但它将继续作为优质资源,帮助人们理解法律与健康信息。"
ChatGPT可作为理解信息的实用工具,且具备多项增强功能。然而因其可能产生错误,您不应百分百信任它,这点在涉及健康或人身自由等重大事项时尤为关键。
如何确保ChatGPT未提供虚假信息
随着科技公司持续开发,AI模型能力虽在提升,但其"幻觉"现象却日益严重。这正是您不应完全信任ChatGPT的核心原因,尤其当信息可能对生活产生实质性影响时。
事实上,已有多个案例显示律师轻信AI工具生成的"幻觉"内容,并将其写入法律文书。情况严重到某位法官正考虑对不当使用ChatGPT或其他类似大型语言模型的律师实施制裁。尽管AI能提供基础医疗信息,但它无法替代拥有多年经验、能进行更全面评估的医生。此外,这些聊天机器人常会迎合用户预期,有时会刻意省略虽属实但令人不适的关键信息。
尽管如此,这并不意味着您不能将ChatGPT或同类AI用于研究。但必须谨记它仅是工具,不可代您思考。确保获取准确答案的方法之一是要求其提供信息来源,随后您应亲自核查原始数据以验证ChatGPT陈述的真实性。另一种方案是先找到可靠信源,再要求AI语言模型为您解析——如此可确保初始信息的准确性。
【全文结束】

