医生使用AI转录患者对话,但研究人员称工具“凭空”生成整个句子OpenAI Tool Used By Doctors 'Whisper' Is Hallucinating: Study

环球医讯 / AI与医疗健康来源:www.entrepreneur.com美国 - 英语2024-10-29 03:00:00 - 阅读时长3分钟 - 1003字
一项新研究发现,OpenAI的语音转文字工具Whisper在转录医疗对话时存在严重错误,可能导致误诊和偏见问题
AI转录患者对话WhisperNabla医疗保健不准确信息“幻觉”医患对话误诊
医生使用AI转录患者对话,但研究人员称工具“凭空”生成整个句子

OpenAI的转录工具Whisper已被AI医疗保健公司Nabla用于转录七百万次医患对话,据The Verge报道。然而,新的研究表明,Whisper在转录过程中添加了不准确的信息。在一项针对13,140个音频片段的研究中,有312个片段包含“幻觉”内容。ChatGPT的制造商OpenAI两年前推出了Whisper,作为一个将语音转换为文本的AI工具。现在,该工具被AI医疗保健公司Nabla及其45,000名临床医生用于帮助转录超过85个组织(如爱荷华大学卫生保健)的医疗对话。

然而,新的研究表明,Whisper正在“幻觉”,即在转录中添加从未说过的内容,引发了医疗机构应如何快速采用AI技术的问题。据美联社报道,密歇根大学的一位研究员在80%的Whisper转录中发现了“幻觉”。一位未具名的开发人员在超过100小时的转录中发现了一半的“幻觉”。另一位工程师在他们用Whisper生成的26,000份转录中几乎全部发现了不准确之处。

普林斯顿高等研究院教授Alondra Nelson在接受美联社采访时说:“医生和患者之间的对话转录出现错误可能会产生非常严重的后果。”“没有人希望误诊。”

今年早些时候,康奈尔大学、纽约大学、华盛顿大学和弗吉尼亚大学的研究人员发表了一项研究,追踪了OpenAI的Whisper语音转文字服务在转录13,140段平均长度为10秒的音频片段时的“幻觉”次数。这些音频来自TalkBank的AphasiaBank数据库,该数据库收录了患有失语症(一种沟通障碍)的人的声音。

研究人员在2023年春季进行实验时,发现了312例“完全凭空生成的短语或句子,这些内容在原始音频中并不存在”。在这些“幻觉”转录中,38%包含了有害语言,如暴力或刻板印象,这些内容与对话的上下文不符。

“我们的研究表明,由于不可预测的‘幻觉’,Whisper的准确性存在严重问题,”研究人员写道。研究人员表示,这项研究还可能表明Whisper存在“幻觉偏见”,即它更倾向于为特定群体插入不准确内容,而不仅仅是失语症患者。“基于我们的发现,我们建议这种类型的‘幻觉’偏见也可能出现在任何因言语障碍导致更多不流利的群体中(例如,患有其他言语障碍如声带疾病的人、老年人或非母语使用者),”研究人员表示。

Whisper通过Nabla已转录了七百万次医疗对话,据The Verge报道。


(全文结束)

大健康

猜你喜欢

  • AI合作将为密西沙加带来更好的医疗服务,医院官员表示AI合作将为密西沙加带来更好的医疗服务,医院官员表示
  • 医疗保健将因人工智能带来新机遇而迅速变革医疗保健将因人工智能带来新机遇而迅速变革
  • eClinicalWorks年度大会上的AI公告大放异彩eClinicalWorks年度大会上的AI公告大放异彩
  • 美国自适应AI驱动医疗设备:伦理考量美国自适应AI驱动医疗设备:伦理考量
  • GPT-4能否提升诊断推理能力?GPT-4能否提升诊断推理能力?
  • AI可提高医疗诊断准确性AI可提高医疗诊断准确性
  • 迈向未来:医疗保健领域的人工智能应用迈向未来:医疗保健领域的人工智能应用
  • 英格兰NHS采用流程挖掘技术取得显著成果英格兰NHS采用流程挖掘技术取得显著成果
  • 亚马逊One Medical推出AI工具改善患者护理亚马逊One Medical推出AI工具改善患者护理
  • Treatment.com AI 首席执行官 Dr. Essam Hamza 在 Cantech 24 接受采访Treatment.com AI 首席执行官 Dr. Essam Hamza 在 Cantech 24 接受采访
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康