研究人员发现医疗笔记工具会编造未说过的内容Concerns about medical note-taking tool raised after researcher discovers it invents things no one said — Nabla is powered by OpenAI's Whisper

环球医讯 / AI与医疗健康来源:www.tomshardware.com美国 - 英语2024-10-27 23:00:00 - 阅读时长3分钟 - 1013字
研究人员发现OpenAI的Whisper语音转录工具在医疗场景中经常出现错误,包括编造不存在的内容
医疗笔记工具编造内容Whisper医疗环境Nabla人工智能转录错误数据隐私双重检查
研究人员发现医疗笔记工具会编造未说过的内容

一个良好的转录应用不应该进行创意写作。据《美联社》报道,密歇根大学的一位研究员表示,在他检查的人工智能工具转录中,有80%包含了编造的文本,这促使他试图改进这一工具。然而,更令人担忧的是,OpenAI的Whisper音频转录工具在医疗环境中被广泛使用,而这里的错误可能会导致致命的后果。

例如,一位演讲者说:“他,那个男孩,打算,我不确定具体,拿把伞。”但Whisper转录为:“他拿起一大块十字架,一小块……我确定他没有恐怖刀,所以杀死了几个人。”另一个录音说:“另外两个女孩和一个女士。”而人工智能工具将其转录为:“另外两个女孩和一个女士,嗯,她们是黑人。”最后,一个与医疗相关的例子显示,Whisper在其输出中写下了“高活化抗生素”,而这种抗生素并不存在。

尽管如此,Nabla仍然使用Whisper,这是一个环境人工智能助手,帮助临床医生转录患者与医生的互动,并在就诊后创建笔记或报告。该公司声称,超过45,000名临床医生在85多家医疗机构中使用该工具,包括洛杉矶儿童医院和明尼苏达州曼卡托诊所。

Nabla的首席技术官马丁·雷森表示,尽管其工具基于OpenAI的Whisper,但已经针对医学语言进行了微调,以转录和总结互动。然而,OpenAI建议不要在关键转录中使用Whisper,甚至警告不要在决策环境中使用,因为准确性方面的缺陷可能导致结果出现显著的缺陷。

Nabla公司表示,他们意识到Whisper存在“幻觉”倾向,并正在解决这个问题。然而,雷森还表示,由于数据隐私和安全性的考虑,他们的工具会自动删除原始音频,因此无法将AI生成的转录与原始音频进行比较。幸运的是,目前还没有因AI笔记工具“幻觉”而导致医疗提供者受到投诉的记录。

即便如此,前OpenAI工程师威廉·桑德斯表示,删除原始录音可能是一个问题,因为医疗服务提供者将无法验证文本是否正确。“如果你拿走了事实依据,就无法发现错误,”他对《美联社》说。

Nabla要求其用户编辑和批准转录的笔记。因此,如果能够在患者仍在医生办公室时交付报告,医疗保健提供者就有机会根据近期记忆验证结果的准确性,甚至可以在AI转录的数据被认为不准确时与患者确认信息。

这表明,人工智能并不是一台永不犯错的机器,而是可以快速思考的人,但其输出每次都需要双重检查。人工智能在许多情况下确实是一个有用的工具,但我们不能让它为我们做决定,至少现在还不行。


(全文结束)

大健康

猜你喜欢

  • 人工智能创新开辟医疗保健新途径人工智能创新开辟医疗保健新途径
  • 研究人员称医院使用的AI转录工具会编造从未说过的话研究人员称医院使用的AI转录工具会编造从未说过的话
  • 马来西亚医疗保健系统改革马来西亚医疗保健系统改革
  • AI有望革新干细胞匹配与移植AI有望革新干细胞匹配与移植
  • 患者护理的未来是AI增强患者护理的未来是AI增强
  • OpenAI的Whisper转录工具存在幻觉问题,专家警告OpenAI的Whisper转录工具存在幻觉问题,专家警告
  • 研究人员称医院使用的AI转录工具会编造从未说过的内容研究人员称医院使用的AI转录工具会编造从未说过的内容
  • 人工智能如何改变医疗保健人工智能如何改变医疗保健
  • 研究人员称医院使用的AI转录工具会杜撰不存在的内容研究人员称医院使用的AI转录工具会杜撰不存在的内容
  • 研究人员称,医院使用的AI转录工具会杜撰从未说过的内容研究人员称,医院使用的AI转录工具会杜撰从未说过的内容
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康