一个良好的转录应用不应该进行创意写作。据《美联社》报道,密歇根大学的一位研究员表示,在他检查的人工智能工具转录中,有80%包含了编造的文本,这促使他试图改进这一工具。然而,更令人担忧的是,OpenAI的Whisper音频转录工具在医疗环境中被广泛使用,而这里的错误可能会导致致命的后果。
例如,一位演讲者说:“他,那个男孩,打算,我不确定具体,拿把伞。”但Whisper转录为:“他拿起一大块十字架,一小块……我确定他没有恐怖刀,所以杀死了几个人。”另一个录音说:“另外两个女孩和一个女士。”而人工智能工具将其转录为:“另外两个女孩和一个女士,嗯,她们是黑人。”最后,一个与医疗相关的例子显示,Whisper在其输出中写下了“高活化抗生素”,而这种抗生素并不存在。
尽管如此,Nabla仍然使用Whisper,这是一个环境人工智能助手,帮助临床医生转录患者与医生的互动,并在就诊后创建笔记或报告。该公司声称,超过45,000名临床医生在85多家医疗机构中使用该工具,包括洛杉矶儿童医院和明尼苏达州曼卡托诊所。
Nabla的首席技术官马丁·雷森表示,尽管其工具基于OpenAI的Whisper,但已经针对医学语言进行了微调,以转录和总结互动。然而,OpenAI建议不要在关键转录中使用Whisper,甚至警告不要在决策环境中使用,因为准确性方面的缺陷可能导致结果出现显著的缺陷。
Nabla公司表示,他们意识到Whisper存在“幻觉”倾向,并正在解决这个问题。然而,雷森还表示,由于数据隐私和安全性的考虑,他们的工具会自动删除原始音频,因此无法将AI生成的转录与原始音频进行比较。幸运的是,目前还没有因AI笔记工具“幻觉”而导致医疗提供者受到投诉的记录。
即便如此,前OpenAI工程师威廉·桑德斯表示,删除原始录音可能是一个问题,因为医疗服务提供者将无法验证文本是否正确。“如果你拿走了事实依据,就无法发现错误,”他对《美联社》说。
Nabla要求其用户编辑和批准转录的笔记。因此,如果能够在患者仍在医生办公室时交付报告,医疗保健提供者就有机会根据近期记忆验证结果的准确性,甚至可以在AI转录的数据被认为不准确时与患者确认信息。
这表明,人工智能并不是一台永不犯错的机器,而是可以快速思考的人,但其输出每次都需要双重检查。人工智能在许多情况下确实是一个有用的工具,但我们不能让它为我们做决定,至少现在还不行。
(全文结束)

