新年第一天,加利福尼亚州的新法律正式生效,禁止使用人工智能(AI)拒绝健康保险索赔。这项被称为“医生做决定”的法律自去年九月由州长加文·纽森(Gavin Newsom)签署以来一直备受关注。据《水星新闻》报道,该法律的知名度因联合健康集团(UnitedHealthcare)高管布莱恩·汤普森(Brian Thompson)在纽约市遇害事件而进一步提升,这一事件引发了公众的广泛愤怒。该法律的主要起草人、州参议员乔什·贝克尔(Josh Becker)表示:“AI算法无法完全理解患者的独特病史或需求,其误用可能导致灾难性后果。这项法律确保人类监督仍然是医疗决策的核心。” 观察加州立法过程后,其他19个州也正在考虑通过类似的法律。“我们甚至接到了多个国会办公室的联系,他们正在考虑联邦立法,”贝克尔告诉媒体,“我们的首要任务是帮助加州居民,但建立全国模式同样重要。”
AI初创公司在2024年筹集了8亿美元,专注于医疗记录市场,比2023年的3.9亿美元翻了一番多。这些数据来自PitchBook,并引起了伦敦《金融时报》的关注。一位南伦敦的初级保健医生哈普里特·苏德(Harpreet Sood)表示:“在我从事医疗行业的15年中,我从未见过如此具有变革性的技术。” 苏德一直在使用Nabla的环境AI助手已有15个月,他表示:“它显著节省了每次10分钟咨询中的3到4分钟,并真正帮助记录咨询内容。” 尽管他意识到该技术可能存在错误,但仍认为这是一项重大转变。
OpenAI暗示即将发布一款可能令人惊叹的新AI模型,其人类推理能力更强。在接受《彭博商业周刊》采访时,CEO山姆·阿尔特曼(Sam Altman)在被问及最新版本是否构成通用人工智能(AGI)时稍有回避。他回应道:“当一个AI系统能够完成非常熟练的人类在重要工作中能做的事情——我会称之为AGI。” 他还提到,如果可以雇佣AI作为远程员工来担任优秀的软件工程师,许多人会说这是“准AGI”。此外,阿尔特曼还分享了他对特朗普政府对AI政策的看法。采访内容需付费阅读,但《PYMNTS》提供了一个很好的总结。
埃隆·马斯克(Elon Musk)在X上宣布,xAI的Grok 3即将推出,其计算能力将是Grok 2的十倍。据《Tom's Hardware》报道,xAI计划部署一台由超过一百万个GPU组成的超级计算机Colossus,用于训练参数量达数万亿的大型语言模型(LLM),这些模型将比Grok 3或GPT-4更为精确。技术作家安东·希洛夫(Anton Shilov)写道:“除了更多的参数外,新模型可能具备更先进的推理能力,使其更接近通用人工智能,这是xAI和OpenAI等公司的最终目标。”
当然,AI可以大大加速药物发现,这一点每个医疗AI观察者都知道。但你知道它还能减轻临床试验参与者的负担吗?AI通过预测最佳剂量、安全性和有效性,使人类受试者无需经历所有这些过程。四名专家在1月6日发表于《基因工程与生物技术新闻》的文章中指出,其公司开发了一个实验平台,可以在每周的时间尺度上创建数百或数千种不同的分子结构,然后进行一系列不同的生物和代谢测试。这无疑是一个重大的助力。
AI辅助与“安静辞职”:三到五年后,你会选择哪一种方式度过工作日?实际上,很少有员工会有这样的选择。“尽管AI具有变革性,但它不能完全接管所有工作任务,因为许多角色需要人类的创造力、情商和复杂决策能力,”全球IT服务公司Cognizant的首席人力资源官凯西·迪亚兹(Kathy Diaz)告诉《新闻周刊》,“随着生成式AI和自动化的优化,软技能的重要性将继续增加。”
回顾2023年,可以说是文本到图像AI的一年,而2024年则主要以文本到视频的进步为标志。那么,2025年会发生什么?麻省理工学院计算机科学与AI实验室主任丹妮拉·鲁斯博士(Daniela Rus)在1月6日发表于《连线》的文章中建议关注“物理智能”,即PI。她建议留意新一代设备,不仅是机器人,还包括从电力网到智能家居的一切,它们能够解释我们的指令并在现实世界中执行任务。
(全文结束)

