研究人员报告称,OpenAI的Whisper转录工具存在幻觉问题,会生成虚构的细节,从而歪曲演讲者实际所说的内容。OpenAI的Whisper是一款广泛使用的AI转录工具,由于其转录中出现的不准确和“幻觉”问题,引起了科技和医疗行业的担忧。据美联社的一项调查,Whisper被宣传为具有接近人类的准确性,但实际上却在转录中添加了不准确或完全虚构的内容。
据报道,Whisper的“幻觉”可能包括不当的种族评论、虚构的医疗信息和暴力言论,而这些内容均非原始演讲者的本意。这一问题引起了广泛关注,尤其是在医院和企业依赖Whisper进行关键转录的情况下。
Whisper在医疗环境中的使用尤其令人担忧。健康系统开始依赖基于Whisper的工具来转录医患互动,尽管OpenAI明确警告不应将其用于高风险决策。由于无法访问原始录音(例如Nabla的基于Whisper的工具),医疗保健提供者无法核对转录内容的准确性。
此外,Whisper的不准确转录对聋哑人和听力障碍社区构成了风险,他们依赖转录服务进行无障碍沟通。这些用户可能会无意中遇到虚构的细节,从而影响他们对关键内容的理解。
不准确的转录:系统性问题
软件工程师、开发人员和学术研究人员指出,Whisper在转录过程中有编造内容的倾向。密歇根大学的研究人员在一项关于公共会议的研究中发现,Whisper的音频转录中有80%存在幻觉。另一位机器学习专家报告称,在审查的100小时Whisper转录中,超过一半存在不准确之处。第三位开发者在其分析的26,000个转录中几乎每一个都发现了幻觉。
即使在短而清晰的音频中,这一问题依然存在。计算机科学家的另一项研究在13,000个片段中发现了187个幻觉。鉴于Whisper在从消费技术到专业设置的各种服务中的广泛应用,这种不准确性可能影响全球数百万用户,导致严重的误解。
尽管有警告,仍在医疗中冒险使用
尽管OpenAI建议不要在“高风险决策情境”中使用Whisper,但医疗保健提供者越来越多地使用它来记录患者就诊。超过30,000名临床医生和40个健康系统(包括明尼苏达州的曼卡托诊所和洛杉矶儿童医院)使用基于Whisper的工具。总部位于美国和法国的公司Nabla开发了Whisper的医疗应用,用于总结医患互动,但问题仍然存在。Nabla的工具不会存储原始音频以保护数据安全,这使得验证转录准确性变得复杂。
隐私专家也对Whisper在医疗环境中的使用表示担忧。加州议会成员Rebecca Bauer-Kahan拒绝签署授权将医疗音频共享给微软Azure等公司的表格。她对允许营利性公司访问私人健康信息的适当性表示担忧。
对聋哑人和听力障碍社区的潜在影响
聋哑人和听力障碍社区经常依赖基于Whisper的字幕进行无障碍沟通,因此特别受到影响。对于聋哑人和听力障碍社区,OpenAI的Whisper转录工具存在幻觉问题,可能导致字幕中出现未经验证的信息。加劳德特大学技术访问项目主任Christian Vogler指出,嵌入字幕文本中的误解使其难以判断准确性。由于无法与音频进行核对,这些用户面临假设错误信息的风险。
Whisper输出中的高幻觉率引发了对更严格监管的呼吁。前OpenAI工程师William Saunders对Whisper的可靠性表示担忧,认为需要改进以防止过度依赖该技术。研究人员和倡导者敦促进行监管监督和进一步开发,以确保在关键应用中的准确性和安全性。
许多开发者观察到,OpenAI的Whisper转录工具存在幻觉问题,对其可靠性提出了质疑。对此,OpenAI表示正在不断努力提高Whisper的准确性。OpenAI的一位发言人感谢研究人员分享他们的发现,并强调公司致力于在未来模型更新中减少幻觉现象。
(全文结束)

