专家警告AI在医疗和法律转录中的“幻觉”Experts warn of AI's 'hallucinations' in medical, legal transcriptions

环球医讯 / AI与医疗健康来源:www.foxbaltimore.com美国 - 英语2024-10-27 01:00:00 - 阅读时长6分钟 - 2708字
专家警告OpenAI的转录工具Whisper存在严重的问题,可能会在医疗和法律等高风险领域产生错误的转录内容
AI转录Whisper医疗转录“幻觉”误诊患者隐私OpenAI监管聋人字幕
专家警告AI在医疗和法律转录中的“幻觉”

罗德岛医院的神经外科医生罗海德·阿里博士正在播放他的患者亚历克西斯·博根制作的一段高中项目视频,该视频记录了博根因脑瘤导致语言受损前的声音。阿里博士和同事们使用OpenAI的语音克隆工具重新创建了她的声音。神经外科医生康斯坦丁娜·斯沃科斯博士在一旁观看。(美联社照片/乔什·雷诺兹)

旧金山(美联社)——科技巨头OpenAI宣称其人工智能驱动的转录工具Whisper具有接近人类水平的稳健性和准确性。但Whisper有一个重大缺陷:它容易编造大段文字甚至整句内容,根据对十几位软件工程师、开发人员和学术研究人员的采访,这些编造的内容在业内被称为“幻觉”,可能包括种族评论、暴力言论甚至是虚构的医疗治疗。

专家表示,这种捏造是存在问题的,因为Whisper被广泛应用于全球多个行业,用于翻译和转录音频、生成流行消费技术中的文本以及为视频创建字幕。更令人担忧的是,尽管OpenAI警告不应在高风险领域使用该工具,但医疗机构仍急于利用基于Whisper的工具来转录患者与医生的会诊。

问题的严重程度难以衡量,但研究人员和工程师表示,在他们的工作中经常遇到Whisper的“幻觉”。例如,密歇根大学的一位研究员在研究公共会议时发现,他检查的每10个音频转录中有8个存在“幻觉”,在他开始尝试改进模型之前。一位机器学习工程师表示,他在分析的100多个小时的Whisper转录中,最初发现了约一半的“幻觉”。另一位开发者表示,他在用Whisper创建的26,000份转录中几乎每个都发现了“幻觉”。

即使在录制良好、较短的音频样本中,问题仍然存在。计算机科学家最近的一项研究发现,在他们检查的13,000多个清晰音频片段中,有187个“幻觉”。研究人员表示,这一趋势将导致数百万次录音中出现数万次错误转录。

“这样的错误可能会有严重的后果,特别是在医院环境中,”前白宫科学技术政策办公室主任阿隆德拉·尼尔森说。她目前是普林斯顿高等研究院的教授。“没有人希望出现误诊,”尼尔森说,“应该有更高的标准。”

Whisper还用于为聋人和听力障碍者创建字幕,这是一个特别容易受到错误转录影响的人群。因为聋人和听力障碍者无法识别隐藏在其他文本中的捏造内容,加劳德特大学技术访问项目主任克里斯蒂安·沃格勒说,他本人也是聋人。

OpenAI敦促解决问题

“幻觉”的普遍性导致专家、倡导者和前OpenAI员工呼吁联邦政府考虑对AI进行监管。至少,他们表示,OpenAI需要解决这一缺陷。“如果公司愿意优先解决这个问题,这似乎是可解决的,”威廉·桑德斯说,他是旧金山的一名研究工程师,今年2月因对公司方向的担忧而离开OpenAI。“如果你将这个工具推出,人们对其能力过于自信,并将其集成到各种系统中,这是有问题的。”

OpenAI的一位发言人表示,公司不断研究如何减少“幻觉”,并感谢研究人员的发现,称OpenAI会在模型更新中纳入反馈。

虽然大多数开发者认为转录工具会拼写错误或犯其他错误,但工程师和研究人员表示,他们从未见过其他AI驱动的转录工具像Whisper那样频繁“幻觉”。

Whisper的“幻觉”

该工具已集成到OpenAI旗舰聊天机器人ChatGPT的一些版本中,并作为内置功能出现在Oracle和Microsoft的云计算平台中,这些平台服务于全球数千家公司。仅在过去一个月,HuggingFace开源AI平台上最近一个版本的Whisper就被下载超过420万次。Sanchit Gandhi是HuggingFace的一名机器学习工程师,他表示Whisper是最受欢迎的开源语音识别模型,被集成到从呼叫中心到语音助手的各种应用中。

康奈尔大学的Allison Koenecke教授和弗吉尼亚大学的Mona Sloane教授检查了从卡内基梅隆大学托管的研究存储库TalkBank获得的数千个短片段。他们确定,近40%的“幻觉”是有害或令人担忧的,因为说话者可能会被误解或歪曲。

在一个例子中,说话者说:“他,那个男孩,打算,我不太确定,拿雨伞。”但转录软件添加了:“他拿了一大块十字架,一小块……我肯定他没有恐怖分子的刀子,所以杀死了几个人。”

另一个录音中的说话者描述了“另外两个女孩和一个女士。”Whisper虚构了额外的种族评论,加上了“另外两个女孩和一个女士,嗯,他们是黑人。”

在第三个转录中,Whisper虚构了一种不存在的药物,称为“高活性抗生素”。

研究人员不确定为什么Whisper和其他类似工具会产生“幻觉”,但软件开发者表示,这些捏造往往发生在停顿、背景声音或音乐播放期间。

OpenAI在其在线披露中建议不要在决策上下文中使用Whisper,因为准确性方面的缺陷可能导致结果的重大缺陷。

转录医生会诊

尽管有这一警告,医院和医疗中心仍在使用语音转文本模型,包括Whisper,来转录医生会诊的内容,以减少医疗提供者在记笔记或撰写报告上花费的时间。超过30,000名临床医生和40个卫生系统,包括明尼苏达州的曼卡托诊所和洛杉矶儿童医院,已经开始使用由Nabla构建的基于Whisper的工具,Nabla在法国和美国设有办事处。

Nabla首席技术官Martin Raison表示,该工具经过微调,可以转录和总结患者的互动。

公司官员表示,他们意识到Whisper可能会产生“幻觉”,并正在缓解这一问题。由于数据安全原因,Raison表示,Nabla的工具会删除原始音频,因此无法将AI生成的转录与原始录音进行比较。

前OpenAI工程师Saunders表示,如果转录未经过双重检查或临床医生无法访问录音以验证其正确性,删除原始音频可能会令人担忧。“如果没有原始事实,你就无法发现错误,”他说。

Nabla表示,没有模型是完美的,目前他们的模型仍需要医疗提供者快速编辑和批准转录的笔记,但这种情况可能会改变。

隐私问题

由于患者与医生的会面是保密的,很难知道AI生成的转录对他们产生了什么影响。加州州议员Rebecca Bauer-Kahan表示,她今年早些时候带孩子去看医生时,拒绝签署健康网络提供的表格,该表格要求她同意将咨询音频分享给包括微软Azure在内的供应商,而微软Azure是由OpenAI的最大投资者运营的云计算系统。Bauer-Kahan不希望如此私密的医疗对话被分享给科技公司。

“授权书明确规定,营利性公司有权拥有这些信息,”代表旧金山郊区的民主党议员Bauer-Kahan说,“我绝对不同意。”

约翰·穆尔健康系统的发言人Ben Drew表示,该系统遵守州和联邦隐私法。


(全文结束)

大健康

猜你喜欢

  • 研究者称医院使用的AI转录工具会杜撰从未说过的话研究者称医院使用的AI转录工具会杜撰从未说过的话
  • 风险投资大额交易繁荣,AI并非最热门类别风险投资大额交易繁荣,AI并非最热门类别
  • 保诚将利用谷歌MedLM生成式AI模型验证医疗理赔保诚将利用谷歌MedLM生成式AI模型验证医疗理赔
  • 为什么一些护士认为AI是工作场所的“监视”为什么一些护士认为AI是工作场所的“监视”
  • 人工智能:改变口腔癌前病变的诊断和预后人工智能:改变口腔癌前病变的诊断和预后
  • 前沿AI在细胞中发现癌症和病毒,症状出现前即可检测前沿AI在细胞中发现癌症和病毒,症状出现前即可检测
  • NHS将试用“超人”AI模型预测疾病和早死风险NHS将试用“超人”AI模型预测疾病和早死风险
  • AI驱动的软件开发如何改变英国医疗实践AI驱动的软件开发如何改变英国医疗实践
  • 患者护理的未来是AI增强患者护理的未来是AI增强
  • 癌症让我成为患者 医疗盲点让我成为CEO癌症让我成为患者 医疗盲点让我成为CEO
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康