监管机构也在调整其方法,从被动监督转向更积极地促进人工智能应用。图片来源:[Gorodenkoff]/Shutterstock.com
2026年4月,在西班牙巴塞罗那举行的"制药与人工智能"会议上,讨论指出,尽管人工智能在药物开发中的应用正在加速,但信任和治理问题正成为规模化应用的关键障碍。尽管预测建模和自动化技术取得了进展,但关于质量、偏见和模型可靠性的担忧仍在限制其广泛应用。
Galapagos公司数据科学主管Debarshi Dey博士强调,人工智能必须超越实验性用例,嵌入实际的决策框架中。他概述了人工智能正在产生影响的三个关键领域:预测、个性化和生产力,范围从早期反应预测和不良事件预测到生物标志物驱动的患者选择和工作流程自动化。然而,在药物发现和临床开发等高风险环境中,即使是微小的不准确也可能产生重大的后续后果,因此对AI输出结果的信任至关重要。
一个关键挑战在于确保人工智能模型在高质量、具有代表性的数据集上进行训练。临床、基因组或真实世界数据中的偏见可能导致误导性预测,最终影响整个开发流程中的决策。因此,人们越来越关注建立稳健的验证流程、明确的使用情境以及对模型性能的持续监控。
监管机构也在调整其方法,从被动监督转向更积极地促进人工智能应用,强调可审计性、透明度和可重复性。这反映了整个行业更广泛的转变——不再将人工智能视为一次性部署,而是视为一个持续受控的系统。
随着人工智能应用的成熟,通过强有力的治理建立信任的能力,将对其从实验工具转变为药物开发决策核心组件起到关键作用。
【全文结束】

