**如果美国医疗保健要帮助推进所有社区负责任且合乎伦理的AI,就需要继续优先考虑多元化、公平与包容(DEI)倡议。**这是华盛顿特区布鲁金斯学会智库的观点。DEI代表多元化、公平和包容。这一运动最近在全国范围内引起了广泛讨论,批评者认为它加剧了现有的分歧,用新的歧视形式取代旧的歧视,并抑制了解决社会问题(如年轻人性别焦虑症爆发)的思想自由交流。布鲁金斯学会的研究人员建议不要急于反对这种观点。“缺乏多样性在医疗AI开发初期会导致技术不符合多样化人群的需求,或者在极端情况下产生医疗错误和/或用户画像。”分析人士写道。“通过用户互动学习的AI模型,特别是那些使用大型语言模型(LLM)的模型,如果服务不足的社区在对话中没有得到充分代表,无法获得技术,或不习惯使用这些工具来理解医学检测和其他相关查询,将进一步加剧不平等。因此,应特别关注有意且合乎伦理的方法,以实现包容性的AI设计、分发和监管。”
**有内部风险?让AI来解决。**约54%的受访组织正在使用AI来检测和防止内部风险。其中51%表示AI和机器学习在检测和预防内部风险方面至关重要或非常重要。推动因素包括减少调查时间(70%)、改进行为洞察(59%)和降低内部风险分析师所需的技能水平(58%)。这些发现来自Ponemon研究所为DTEX Systems进行的一项新调查。研究人员发现,内部风险的年度成本最高的是医疗和制药行业(2920万美元)。技术和软件行业位居第二,为2300万美元。
**医生认为在个性化医疗方面,医疗AI的重要性超过基因组学。**当被问及哪种新兴技术在未来五年内对患者护理更有帮助时,远程机器人手术排名第三。这项调查由医生社交网络平台Sermo进行。调查还显示,超过80%的医生认为技术能力与临床知识同等重要。
**你不能夸大人工智能和增强智能对临床文档专业人员的时间节省影响。**但不必感到难过,因为没有人能做到这一点。MPA弗兰克·科恩在《RACmonitor》上发表的文章中解释了原因。“使用高级文档系统的医生报告说,每天平均节省52分钟——这些时间可以重新用于患者护理或减少行政加班,”VMG Health咨询公司的计算统计学家科恩写道。“这些效率源于减少了文档负担、减少了回顾性查询以及在文档过程中简化了信息检索。”
**要了解欧盟AI法案的走向,可能需要知道它的现状和如何发展到这一步。**欧盟执行机构欧洲委员会本周发布了一份简明扼要的概述。该法案于2024年8月1日生效,并将在两年后全面适用,尽管有一些例外。“禁止条款将在六个月内生效,治理规则和通用AI模型的义务将在12个月内生效,嵌入受监管产品中的AI系统规则将在36个月内生效,”他们补充道。虽然有些复杂,但这正是为什么这份结合了回顾和更新的内容既及时又对一些AI观察者来说是必要的。
**2025年的100万美元图灵奖授予……安德鲁·巴托和理查德·萨顿。**两人因在强化学习领域数十年的工作而获奖。这种方法通过奖励与惩罚的方式训练AI系统。有些人更喜欢称之为快乐与痛苦的方法。巴托是马萨诸塞大学的名誉教授,萨顿是阿尔伯塔大学的教授,曾是DeepMind的研究科学家。颁奖机构是计算机协会。他们利用突然扩大的声音警告世界,不要仓促将AI推向用户。“工程实践已经演变,试图减轻技术的负面影响,但我没有看到开发AI的公司在这样做,”巴托在接受《金融时报》采访时说。与此同时,萨顿将围绕人工通用智能的炒作放在适当的位置。“AGI是一个奇怪的术语,因为一直都有AI和人们试图理解智能,”萨顿说,然后补充道:“比人类更聪明的系统最终会通过更好地理解人类思维而形成。”
**微软推出了Dragon Copilot。**该公司周一宣布,这款临床工作流程助手是世界上第一个结合自然语言处理语音听写、微软级别的环境监听、生成式AI和特定于医疗保健的安全保障的产品。作为Microsoft Cloud for Healthcare的一部分推出,希望能在提供者和患者中找到粉丝。
(全文结束)

