大型语言模型(LLMs)如ChatGPT经常被赞誉为任何工作场所的革命性工具。然而,在制药行业,小规模的监督式机器学习模型可能提供更有效和可靠的解决方案。2024年10月24日
人工智能(AI)被认为是在临床试验中提供最大益处的技术。在GlobalData的年度生物制药行业调查中,AI连续在2020-2023年被评为对行业影响最大的技术。但哪种类型的AI最具潜力?
生成式AI和机器学习在临床试验中能发挥什么作用?还是有更优的模型?eClinical平台提供商Zelta探讨了这一问题,评估了新技术如何解决一系列用户挑战。下载白皮书了解Zelta如何利用自动化和监督式机器学习帮助客户实现投资回报率并加速临床试验时间表。
虽然AI的应用潜力巨大,但制药公司采用AI时应采取积极、价值驱动的战略,而不是为了技术而技术。大型语言模型(LLMs)如ChatGPT以其从互联网快速获取输入并生成大量文本的能力令人惊叹。这种无限的创造力令人兴奋,但也可能带来问题,因为LLMs容易生成不可靠的响应。监督式机器学习(ML)通常能更好地利用AI在临床研究领域的优势,同时减少与LLMs相关的透明度、成本和一致性问题。
LLMs不是可靠的信息生成器
LLMs能够理解和生成连贯的人类语言文本,可以用于翻译模型、内容创作和自动客户服务机器人。它们在传统自然语言处理(NLP)任务中的表现也优于传统的ML方法,例如分类、实体提取和关系提取。然而,即使在初步阶段,LLMs也出现了不可避免的问题。计算成本高,风险大,包括输出不一致和监管障碍。尤其是“幻觉”问题,即AI生成的看似真实和令人信服但实际上错误的响应。
考虑以下示例,当ChatGPT被要求提供“心肌梗死”的MedDRA代码时,其响应非常流畅、清晰且权威,提供的代码确实是一个真实的MedDRA代码,但问题在于它并不是心肌梗死的代码,而是间皮瘤的代码。ChatGPT并没有故意误导用户,而是由于LLM在生成响应时选择了每个位置上最可能的下一个词。任何看起来像有效MedDRA代码的内容都可以输出,无论是否正确。因此,构建基于生成式AI的解决方案时需要谨慎考虑。即使添加人工验证过程也可能徒劳,因为原始生成的文本非常权威和有说服力。
然而,监督式机器学习模型具有固有的优势。由于它们被认为是不可靠的,因此无法通过有说服力的叙述来“说服”用户。相反,用户对AI模型产生了一定的熟悉度和信任感。
监督式机器学习的优势
鉴于数据隐私和透明度方面的担忧,根据具体用例,LLMs可能不是某些临床试验的理想选择。对于许多用例,监督式ML模型的成本仅为LLMs的一小部分,通常更有效、可扩展和可维护。行业领导者如Zelta by Merative在临床研究中部署AI时,坚持“合适的工具用于合适的工作”和“以客户价值为先”的理念。尽管LLMs的炒作很容易让人陷入其中,但盲目地将AI战略完全转向LLMs可能是不必要的,因为监督式ML模型提供了更高效和具体的回报。Zelta提供明确、可衡量的价值声明,并以务实的解决方案支持,避免使用流行语和过度承诺。
LLMs如ChatGPT、Llama和Gemini在语言理解和生成方面取得了显著进展,为各个领域提供了有价值的应用。然而,Zelta发现监督式机器学习在帮助申办者和合同研究组织(CROs)实现临床试验目标方面带来了更多实际好处。监督式ML提供了更大的数据控制权,确保数据符合必要的准确性、合规性和相关性标准。这种方法减少了不可预测输出的风险,并使他们能够微调结果,获得更可靠和可操作的见解。尽管LLMs展示了令人兴奋的潜力,但监督式学习提供的精确性和监督能力更能满足他们当前的高影响力需求。
对于许多临床试验而言,监督式ML更适合满足特定的数据要求,而不是其他通用AI解决方案。这些更具体的任务所需的训练数据较少,减轻了管理者培训模型的负担,并可以集成到工作流程中,与人类用户建立强大的反馈循环。尽管监督式模型的训练数据难以获取且成本高昂,但长期节省的成本显著,特别是考虑到监督式ML模型运行速度之快。正确实施时,它们可以将长期存在的数据挑战转变为新的战略优势。
Zelta如何利用AI增强临床试验服务
行业领导者Zeta已将AI和高级自动化集成超过十年。基于云的eClinical平台使管理临床试验变得简单易行,AI支持医疗编码和CDASH注释。这种机器学习软件已帮助节省了数百小时的人工劳动,并提高了临床试验的准确性和效率。
随着AI在临床研究中的影响持续扩大,Zeta致力于在未来扩展其AI增强功能,但仅限于经过测试的用例,而不是盲目跟随最新的热门趋势。要了解更多关于Zeta如何利用监督式机器学习进行临床研究的方法,以及他们在过去十年中利用AI和自动化在临床领域取得可衡量成果的记录,请下载以下报告。
(全文结束)

