研究人员称医院使用的AI转录工具会杜撰从未说过的内容Researchers say an AI-powered transcription tool used in hospitals invents things no one ever said

环球医讯 / AI与医疗健康来源:www.thestar.com.my美国 - 英语2024-10-28 10:00:00 - 阅读时长5分钟 - 2489字
研究人员发现,OpenAI的AI转录工具Whisper在医院等高风险环境中使用时,会杜撰从未说过的内容,引发严重担忧。
AI转录工具Whisper杜撰内容医院医疗转录误诊AI监管患者隐私OpenAI幻觉
研究人员称医院使用的AI转录工具会杜撰从未说过的内容

科技巨头OpenAI曾宣称其人工智能驱动的转录工具Whisper具有接近人类水平的稳健性和准确性。但据十几位软件工程师、开发者和学术研究人员的采访,Whisper存在一个重大缺陷:它容易杜撰大段文本甚至整个句子。这些专家表示,一些杜撰的文本(行业内称为“幻觉”)可能包括种族评论、暴力言论甚至虚构的医疗治疗方案。

专家们认为,这种杜撰内容的问题在于,Whisper被广泛应用于多个行业,用于翻译和转录音频、生成流行消费技术中的文本以及为视频创建字幕。更令人担忧的是,尽管OpenAI警告不应在高风险领域使用该工具,但医疗机构仍在争相采用基于Whisper的工具来转录患者与医生的咨询对话。

虽然问题的全部范围难以确定,但研究人员和工程师表示,他们在工作中经常遇到Whisper的“幻觉”。例如,密歇根大学的一位研究员在研究公共会议时发现,在他检查的每10个音频转录中就有8个包含幻觉,这在他开始尝试改进模型之前的情况。一位机器学习工程师表示,他在分析的超过100小时的Whisper转录中,约有一半发现了幻觉。另一位开发人员表示,他在使用Whisper创建的26,000个转录中几乎每个都发现了幻觉。

即使在录制良好、简短的音频样本中,这些问题仍然存在。最近的一项研究表明,在计算机科学家检查的13,000多个清晰音频片段中,发现了187个幻觉。研究人员表示,这一趋势可能导致数百万次录音中出现数万次错误转录。

这样的错误可能会产生严重的后果,尤其是在医院环境中。前白宫科学技术政策办公室主任Alondra Nelson表示:“没有人希望出现误诊。应该有更高的标准。”Whisper还用于为聋人和听力障碍者创建字幕,这是一个特别容易受到错误转录影响的人群。因为聋人和听力障碍者无法识别隐藏在其他文本中的杜撰内容,Gallaudet大学技术访问项目主任Christian Vogler(他本人也是聋人)说道。

专家、倡导者和前OpenAI员工呼吁联邦政府考虑对AI进行监管。至少,他们表示,OpenAI需要解决这一缺陷。“如果公司愿意优先处理这个问题,这是可以解决的,”旧金山的研究工程师William Saunders说,他于今年2月因对公司方向的担忧而离开OpenAI。“如果人们过于自信地将这项技术集成到其他系统中,这是有问题的。”

OpenAI的一位发言人表示,公司不断研究如何减少幻觉,并感谢研究人员的发现,OpenAI会在模型更新中纳入反馈。大多数开发者假设转录工具会拼写错误或其他错误,但工程师和研究人员表示,他们从未见过其他AI驱动的转录工具像Whisper那样频繁地杜撰内容。

Whisper被集成到OpenAI旗舰聊天机器人ChatGPT的一些版本中,并作为Oracle和Microsoft云计算平台的内置产品,服务于全球数千家公司。它还用于将文本转录和翻译成多种语言。仅在过去一个月内,一个最近版本的Whisper就在开源AI平台HuggingFace上被下载了超过420万次。HuggingFace的机器学习工程师Sanchit Gandhi表示,Whisper是最受欢迎的开源语音识别模型,被广泛应用于从呼叫中心到语音助手的各种应用中。

康奈尔大学教授Allison Koenecke和弗吉尼亚大学教授Mona Sloane检查了从卡内基梅隆大学托管的研究存储库TalkBank获得的数千个短片段,他们发现近40%的幻觉是有害或令人担忧的,因为说话者可能会被误解或曲解。

在一个他们发现的例子中,说话者说:“他,那个男孩,打算,我不确定具体,拿伞。”但转录软件添加了:“他拿起了一块很大的十字架,一小块……我肯定他没有恐怖刀,所以他杀死了几个人。”另一个录音中,说话者描述了“两个其他女孩和一个女士”,Whisper却杜撰了关于种族的额外评论,加上了“两个其他女孩和一个女士,嗯,他们是黑人。”在第三个转录中,Whisper杜撰了一个不存在的药物名称“超激活抗生素”。

研究人员不确定为什么Whisper和其他类似工具会产生幻觉,但软件开发者表示,这些杜撰内容通常发生在停顿、背景声音或音乐播放时。OpenAI在其在线披露中建议不要在“决策上下文中”使用Whisper,因为在准确性上的缺陷会导致结果上的显著缺陷。

尽管如此,这一警告并没有阻止医院或医疗中心使用语音转文字模型,包括Whisper,来转录医生就诊期间的对话,以减少医务人员在记笔记或撰写报告上的时间。超过30,000名临床医生和40个卫生系统,包括明尼苏达州的曼卡托诊所和洛杉矶儿童医院,已经开始使用由Nabla(在法国和美国设有办事处)构建的基于Whisper的工具。

Nabla首席技术官Martin Raison表示,该工具经过微调,可以转录和总结患者的互动。公司官员表示,他们意识到Whisper会产生幻觉,并正在解决这一问题。Raison表示,由于数据安全原因,Nabla的工具会删除原始音频,因此无法将AI生成的转录与原始录音进行比较。

前OpenAI工程师Saunders表示,如果转录未经双重检查或医务人员无法访问录音以验证其正确性,删除原始音频可能会令人担忧。“如果没有真实情况,你就无法发现错误,”他说。Nabla表示,没有任何模型是完美的,目前他们的模型仍需要医务人员快速编辑和批准转录的笔记,但这可能会改变。

由于患者与医生的会议是保密的,很难知道AI生成的转录如何影响他们。加州州议员Rebecca Bauer-Kahan表示,她今年早些时候带孩子去看医生时,拒绝签署健康网络提供的表格,该表格要求她同意将咨询音频共享给包括微软Azure在内的供应商,而Azure是由OpenAI的最大投资者运行的云计算系统。Bauer-Kahan表示,她不希望如此私密的医疗对话被分享给科技公司。“授权书明确规定,营利性公司有权拥有这些信息,”她说,“我绝对不同意。”

John Muir Health发言人Ben Drew表示,该健康系统遵守州和联邦隐私法。


(全文结束)

大健康

猜你喜欢

  • OpenAI的Whisper转录工具存在幻觉问题,专家警告OpenAI的Whisper转录工具存在幻觉问题,专家警告
  • 人工智能正在迅速改变癌症诊疗方式人工智能正在迅速改变癌症诊疗方式
  • 保护医疗行业免受网络钓鱼攻击保护医疗行业免受网络钓鱼攻击
  • 研究人员称医院使用的AI转录工具会杜撰不存在的内容研究人员称医院使用的AI转录工具会杜撰不存在的内容
  • 研究人员称医院使用的AI转录工具会编造从未说过的话研究人员称医院使用的AI转录工具会编造从未说过的话
  • 人工智能创新开辟医疗保健新途径人工智能创新开辟医疗保健新途径
  • AI 创新改变医疗保健交付方式AI 创新改变医疗保健交付方式
  • AI有望革新干细胞匹配与移植AI有望革新干细胞匹配与移植
  • AI助力医生在X光片中发现骨折AI助力医生在X光片中发现骨折
  • OpenAI的Whisper工具在音频转录中添加虚假文本OpenAI的Whisper工具在音频转录中添加虚假文本
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康