在过去的 5 天里,有关人工智能的 10 条引人注目的言论如下:
观点:“[人工智能]并不完美,但人们正在节省生产力成本。”
——高盛全球研究所联席主管、人工智能“看多者”乔治·李(来源:《纽约时报》9 月 23 日“人工智能会失败吗?华尔街怀疑论者敲响警钟”)
反观点:“过度建设世界不需要或尚未准备好的东西,通常结局不佳。”
——高盛股票研究主管、人工智能“看空者”吉姆·科维洛(来源:《纽约时报》9 月 23 日“人工智能会失败吗?华尔街怀疑论者敲响警钟”)
“[技术]在我们的医疗保健体验中日益核心。但同样真实的是,如果我们任由技术自行发展,我们就有可能面临技术成为没有指挥的管弦乐队的风险。”
——美国医院协会首席医师执行官克里斯·德雷尼佐医学博士(来源:9 月 26 日《新闻周刊》“人工智能是美国唯一不受监管的‘重要领域’,医疗保健高管表示”)
“人工智能技术正在迅速成为现代医学的核心。未来的医生、临床医生和医学专家必须学会熟练使用并了解人工智能的工作原理及其贡献。”
——Cognoa 首席执行官沙里夫·塔拉曼医学博士(来源:9 月 24 日《福布斯》“教学大纲中的人工智能:为当今的医生做好准备”)
“在医疗保健环境中使用人工智能加剧了医疗保健专业人员长期争论的问题,包括人员配备比例和患者护理的自主权。”
——分析师帕特里克·奥克福德、乔希·比文斯和塞琳娜·麦克尼古拉斯(来源:9 月 25 日经济政策研究所“联邦人工智能立法:对现有提案的评估和前进路线图”)
“尽管人工智能可以为医疗保健组织带来很多好处,但也有坏处。任何提供者/临床医生都需要很长时间才能真正从表面上接受人工智能应用的输出。”
——Pivot Point 咨询公司数据、分析和人工智能业务常务董事 MJ Stojak(来源:9 月 25 日《医疗信息技术顾问》“在医疗保健中利用人工智能的利弊”)
“在制药和药品生产领域的医学写作中,人工智能应用有望提高效率、准确性和创新性,为各种医疗状况开发更安全、更有效的疗法做出贡献。”
——研究与市场(来源:9 月 25 日新闻稿“2024 年医学写作中的人工智能市场研究报告”)
“医生和医疗保健专业人员经常将人工智能想象成 2001 年史蒂文·斯皮尔伯格电影《人工智能》中描绘的具有独特爱心能力的未来主义、仁慈、孩子气的类人机器人。然而,美国司法部不同意。”
——宾夕法尼亚州利哈伊谷蓝山精神病学首席执行官、首席精神病学家和内科医生穆哈迈德·阿里·里法伊医学博士(来源:9 月 24 日《KevinMD》“医疗保健法规执行中人工智能的使用”)
“在高风险环境中提供产品的人工智能公司有责任向公众和客户透明其风险、限制和适当用途。医院和其他医疗保健实体必须考虑人工智能产品是否合适,并相应地培训其员工。”
——德克萨斯州总检察长肯·帕克斯顿(来源:9 月 23 日《医疗保健潜水》“德克萨斯州总检察长与生成式人工智能公司就准确性指控达成和解”)
“围绕一个核心营利实体进行重组,正式确定了外界已经知道一段时间的事情:OpenAI 正试图在过去几年获得大量投资的行业中获利。[至于]OpenAI 最初对安全、透明度和不集中权力的强调。”
——康奈尔大学技术政策研究所所长萨拉·克雷普斯(来源:9 月 26 日《Vox》“我们所知道的 OpenAI 已不复存在”)
我们的合作伙伴的最新消息:
Nabla 现在支持 35 种语言以推进具有文化响应性的护理:临床医生现在可以利用支持的 35 种语言中的任何一种进行人工智能驱动的文档记录,以减少图表绘制时间,专注于患者护理,并享受更好的工作与生活平衡。患者在其首选语言中接收护理说明,确保在整个医疗保健过程中清晰和合规。在此处阅读更多。
行业观察家摘要:
过去几天值得关注的发展:
- 如果您尚未深入开发生成式人工智能产品,不要再等待进一步涉足。这是对软件供应商的一点免费建议。它来自贝恩公司。在一份广泛的新报告中,这家大型商业咨询公司指出,在围绕生成式人工智能的炒作中很容易迷失。但看看在该类别中表现出色的私募股权投资者。他们正在加倍制定已知能带来可衡量收益的生成式人工智能工具的计划。并且他们正在设想如何“增强或重新构想”产品供应,而不会被丰厚且快速的投资回报率的大梦想冲昏头脑。作者写道:“对于任何软件业务,人工智能都需要成为长期战略规划的一部分,无论是在进攻还是防御方面。现在,关键是在能够立即获得回报的领域启动并部署这些技术。”贝恩公司在此处发布了摘录和完整报告。
- 承认您没有好答案并不可耻。试着对最新一代的大型语言人工智能聊天机器人说这句话。一项新的研究表明,当它们最好承认无知时,这批聊天机器人往往会给出错误的答案。更糟糕的是,同一项研究表明,人们有点过于急于接受不确定的答案作为权威答案。格拉斯哥大学的科学和技术哲学家迈克·希克斯告诉《自然》杂志,这些机器人在超出其能力范围给出意见的倾向“在我看来就像是我们所说的胡说八道”。他补充说,生成式人工智能“在假装博学方面变得更好了”。
- 医生使用生成式人工智能为患者起草信息可能是一件非常好的事情。医生在不检查准确性的情况下发送这些信息可能是一件非常糟糕的事情。纽约州加里森生物伦理学研究机构黑斯廷斯中心的研究员 Athmeya Jayaram 博士抓住了问题的核心。他告诉《纽约时报》:“当您阅读医生的笔记时,您是以您的医生的声音阅读它。如果患者知道他们与医生交换的信息实际上是由人工智能生成的,我认为他们会感到被背叛。”如果消息包含错误、不准确或误导性的建议——见上面的项目——最终结果可能比背叛感更糟。
- 之前已经说过,并且还会再说:用于训练人工智能的数据是有限的资源。考虑到每天创建和数字发布的大量多模态内容,这似乎不可能。但在训练人工智能时,质量与数量同等重要,如果不是更重要的话。“获得高质量数据是人工智能创新的命脉,”隐私和开源倡导组织秘密网络基金会执行董事丽莎·劳德告诉《华尔街日报》。“更好的数据不仅能增强人工智能,还能确保其相关性和公平性。”阅读这篇文章。
- 数据库就是数据库。除非它是向量数据库。在这种情况下,它可以特别出色地处理生成式人工智能任务。《InfoWorld》的一位撰稿人在 9 月 23 日发布的一篇专题文章中解释说,这是因为向量数据库“专注于人工智能系统所依赖的非结构化、特征丰富的向量”。“由于向量搜索和相似性匹配在人工智能应用中的重要性日益增加,许多传统数据库供应商正在为其产品添加向量搜索功能。”阅读全文。
- 美国卫生与公众服务部(HHS)正在增加一个部门,提供特别关注人工智能的技术专业知识。HHS 的米奇·特里帕蒂博士(包括代理首席人工智能官)在本月的一次卫生信息技术峰会上宣布了这一变化。据 GovCIO 报道,特里帕蒂将监督新部门,他告诉与会者:“我们将拥有为我们所有的运营和人员部门提供数字服务和技术援助的团队,这样他们就不必担心外出并为这种专业知识招聘团队。他们将按需提供,并将有助于咨询和技术支持。”
- 被德克萨斯州总检察长置于风口浪尖的生成式人工智能供应商正在发声。总检察长肯·帕克斯顿指控 Pieces Technologies 非法夸大其算法在编写临床笔记和文档方面的准确性,误导了孤星州的几家医院。Pieces 同意了条款,其中不包括惩罚性措施,但无论如何肯定很痛苦。当时,一家德克萨斯电视台称此案为“医疗保健中人工智能的首例此类调查”。现在,Pieces 发表了一份准备好的声明,声称总检察长办公室的新闻稿“歪曲了 Pieces 签署的自愿合规保证(AVC)”。Pieces 补充说:“AVC 没有提及 Pieces 产品的安全性,也没有证据表明公共利益曾经处于危险之中。”《HIPAA 杂志》有更多内容。
- 对于 OpenAI 来说,这是重要的一周。该公司宣布将部分重组为营利性公司,并在此过程中向首席执行官山姆·奥特曼提供股权。也许有关,也许无关,奥特曼的高级副手之一、首席技术官米拉·穆拉蒂辞职。部分是一个含糊的词,因为该计划似乎是保留一个非营利部门,该部门将在营利性公司中拥有少数股权。OpenAI 在事先准备好的声明中表示,“仍然专注于构建造福每个人的人工智能,我们正在与董事会合作,以确保我们在使命中处于最佳成功位置。非营利部门是我们使命的核心,并将继续存在。”新闻报道随处可见。
- 近期新闻中的研究:
- 德国癌症研究中心:DeepRVAT 人工智能模型预测罕见基因变异的影响
- 值得注意的 FDA 批准:
- Nevro 宣布其配备人工智能的脊髓刺激平台获得 FDA 批准并有限市场发布
- 值得关注的融资新闻:
- 全球医疗保健人工智能创新者 Qure.ai 完成 6500 万美元 D 轮融资
- 来自 AIin.Healthcare 的新闻合作伙伴:
- 《健康成像》:考虑放射科工作人员的担忧可改善人工智能的实施
- 《放射学业务》:大多数患者支持放射学人工智能,但工作流失、数据隐私是主要担忧

