OpenAI的新AI音频转录工具Whisper尽管在医疗等高风险行业广泛采用,但频繁出现AI幻觉。AI幻觉是指大型语言模型(LLM)识别出不存在的模式,生成无意义或荒谬的输出。据《AP News》报道,专家们表示,Whisper在八成的音频转录中都出现了幻觉,包括种族评论、暴力言论甚至虚构的医疗治疗。
尽管普遍接受AI转录工具会出现一些拼写错误,但工程师和研究人员表示,他们从未见过其他AI驱动的转录工具像Whisper这样频繁地出现幻觉。密歇根大学的一位研究员声称,在他研究的每10个音频转录中有8个都出现了幻觉。
微软公开声明该工具不适用于高风险用例,但据报道,许多医疗机构已经开始采用基于Whisper的工具进行转录。《AP News》称,超过30,000名临床医生和40个医疗系统,如明尼苏达州的曼卡托诊所和洛杉矶儿童医院,已经开始使用基于Whisper的工具进行转录。
普林斯顿大学社会学教授阿隆德拉·纳尔逊告诉《AP》,这些错误在医疗环境中可能会产生“非常严重的后果”。“没有人希望被误诊,”她告诉该出版物,“应该有更高的标准。”
前OpenAI员工、研究工程师威廉·桑德斯说:“如果这个工具被推出,人们对其能力过于自信并将其集成到其他系统中,这是有问题的。”
但OpenAI并不是唯一一家产品被指控出现幻觉的科技巨头。谷歌的AI Overview功能,提供网站的人工智能弹出摘要,曾建议一位X用户在比萨上添加无毒胶水。苹果也承认其未来产品可能存在AI幻觉的问题。在接受《华盛顿邮报》采访时,苹果CEO蒂姆·库克承认,虚假结果和AI幻觉可能是苹果即将推出的生成式AI工具的问题。
(全文结束)

