《欧洲生理学杂志》特刊:人工智能在生理学和医学领域的应用(PDF) Special issue European Journal of Physiology: Artificial intelligence in the field of physiology and medicine

环球医讯 / AI与医疗健康来源:www.researchgate.net德国 - 英语2025-03-14 01:00:00 - 阅读时长6分钟 - 2898字
这篇特刊汇集了关于人工智能在医学和生理学领域最新进展和应用的综述文章,涵盖了数字病理学、生成式AI、可解释AI(XAI)以及AI开发和实施中的伦理问题。这些综述强调了AI在医疗诊断、个性化医疗和临床决策方面的潜力,同时也讨论了数据质量、可解释性和可信度等挑战。
人工智能医学生理学数字病理学生成式AI可解释AI伦理问题医疗诊断个性化医疗临床决策
《欧洲生理学杂志》特刊:人工智能在生理学和医学领域的应用

这篇特刊汇集了关于人工智能(AI)在医学和生理学领域最新进展和应用的综述文章。所涵盖的主题包括数字病理学、生成式AI、可解释AI(XAI)以及AI开发和实施中的伦理问题。这些综述强调了AI在医疗诊断、个性化医疗和临床决策方面的潜力,同时也讨论了数据质量、可解释性和可信度等挑战。这些贡献展示了AI在生理研究和医学中日益重要的地位,多层面伦理方法在AI开发中的必要性,以及生成式AI在医学应用中的潜在益处。总的来说,这篇特刊展示了AI在医学和生理学领域的一些开创性方面,涵盖了技术、应用和伦理观点,并强调了AI对这些领域的显著影响。

图1 由生成式AI(ChatGPT,2025年2月14日)生成的图像示例,主题为“生理学中的AI算法”

组织病理学是医学诊断中的一个重要方法,因为它允许通过显微镜检查组织样本,使临床医生能够识别异常并进行各种疾病的图像诊断,包括癌症。在传统的方法中,训练有素的病理学家通过观察显微镜图像,并基于经验和已发布的标准进行诊断或分类。Hölscher等人在一篇系统综述中讨论了数字组织病理学的应用现状。作者讨论了从手动分析到数字病理学和计算病理学的发展过程,后者可以在人工智能和深度学习技术的背景下用于分析病理标本。Hölscher等人的综述还强调了使用基础模型的趋势,这些模型在广泛的数据上进行了预训练,可以适应各种任务。例如,Virchow、UNI和CONCH模型在癌症检测、肿瘤淋巴细胞检测和其他任务中表现出色。作者总结说,组织病理学已经从手动分析发展到了数字和计算病理学,后者利用人工智能和深度学习技术以高精度和准确性分析标本,实现自动分类、分割和回归,最终推进精准医学和疾病机制的理解。尽管该领域取得了显著进展,但在临床实施之前仍存在一些障碍,包括病理研究所的数字化程度有限、缺乏前瞻性证据和报销问题。

或许最著名的生成式AI例子是OpenAI的大规模语言模型ChatGPT。生成式AI可以根据大量数据训练生成文本或图像数据。一个生成式AI生成的图像示例如图1所示。生成式AI在生理学中的潜力是多方面的。Umesh等人强调了生成式AI的动机和机会以及分析表格患者数据的挑战。他们描述了数据增强和数据协作的机会,例如,在体内和体外研究数据匹配以及临床决策中的应用,例如选择合适的癌症治疗和个人化医疗。他们描述了最先进的模型的技术方面,例如生成对抗网络(GANs)和扩散模型以及可用的常见评估指标。表格数据生成方法的基本挑战在于生理复杂性、关联表和多样化的特征类型。临床研究、个性化医疗以及卫生政策可以从生成式AI创建的数据中受益。Umesh等人强调了生成式AI在临床试验过程、药物发现、数字孪生、数据丰富以及数据共享技术中的潜在好处。

Seiler和Ritter的综述探讨了生成建模的当前状态及其在神经疾病研究中的巨大潜力。他们描述了各种(深度)生成建模模型类型,例如变分自编码器和规范化流,以及其在神经影像学中的不同用途,特别是新数据生成和表示学习。详细描述了当前生成建模在阿尔茨海默病和多发性硬化症中的临床应用,并提出了数据资源、评估和隐私方面的挑战和关注点。

可解释的人工智能(XAI)是一个专注于开发提供透明且易于理解的预测或决策解释的机器学习工具的研究领域。通过弥合复杂的AI算法与人类用户之间的差距,XAI是一种提高信任、问责制和理解的重要方法。XAI通常通过几种可视化技术提供输入如何转化为输出的见解,例如全局解释(理解整体决策)和局部解释(识别影响特定决策的关键输入特征)。在这篇特刊中,我们有三篇相关的贡献:

Finzel的综述集中于更广泛的可解释人工智能的新领域。XAI旨在使人工智能变得可理解和可解释,具有验证意义。Finzel简要介绍了XAI方法论以及XAI领域的当前出版物——提供了方法、研究重点和医学背景。Finzel讨论了XAI在生理研究中日益增长的重要性,其中AI越来越多地用于分析和预测目的。Finzel的综述基于85篇论文,她回顾了XAI的关键主题,概述了当前应用于生理学的方法,并通过实际医学案例讨论了已解决和未解决的挑战。它还探讨了两个未来方向:首先,开发适用于综合生理研究的可信AI;其次,将生理专业知识融入XAI开发,以促进有效的人机合作。Finzel的综述总结说,可解释的人工智能在通过知识发现和整合人类专业知识与模型和数据来增强生理研究方面具有重要意义。Finzel强调,生理学可以从XAI方法中大大受益,而XAI本身也可以通过整合生理学见解来生成更有意义的解释。最终目标是为AI决策创建以人为中心的解释,这将促进AI在生理学和医学中更无缝和集成的使用。

Boge和Mosig聚焦于如何解释和声明生物医学决策中的人工智能,特别是在医学诊断中。作者通过航海时代的例子解释了可解释性的必要性,并描绘了基于AI的病理学中的近期案例,例如结直肠癌。他们全面概述了可解释性的主要方面、因果关系与解释的关系,以及在生物医学方法中的稳健性和可信度。最后,作者提供了连接科学解释和生物医学中AI的几条指南。此外,作者强调另一个未来工作的领域是确定什么构成特定医学应用中的强大且有用的解释,以及特定AI系统需要多少解释。作者建议这需要逐案评估。他们还指出,虽然一些研究原则上确定了可解释的解释,但这些解释的实际系统验证尚未进行。这进一步通过计算病理学中的一个例子说明了科学解释的潜力,该例子区分了结直肠组织中的微卫星稳定和微卫星不稳定肿瘤,权衡了这种方法的成本和收益。作者预测,可信的AI系统将需要量身定制的解释,尤其是在出现无法解释的故障时,认为科学解释的方法为此目标提供了途径。

在另一篇更具针对性的系统综述中,Contreras等人探索了XAI在光谱学中的现状,这是一个相对较新的领域。在分析了主要期刊数据库中的21项研究后,作者发现大多数研究集中在使用XAI方法进行光谱数据分析以识别重要光谱带。最常用的AI技术是SHAP、LIME启发的掩码方法和CAM,它们提供可解释的解释而不修改原始模型。作者在该综述中得出结论,未来的研究应开发新方法并从其他领域适应XAI方法,以更好地适应光谱数据的独特特性。

随着历史上的所有革命,都有伦理问题需要考虑。在这方面,我们包含了一篇关于AI的伦理焦点的文章。Vandemeulebroucke声称,医疗保健和医学领域的人工智能系统有望提高护理质量、效率和成本降低。然而,他也令人信服地描述了隐私、权力动态和偏见方面的持续担忧。虽然现有的伦理方法提供了一个框架,但它们往往狭隘地关注特定环境,忽视了更广泛的全球和环境影响。为了解决这个问题,他提出了一种多层次的伦理方法——涵盖个人、组织、社会、全球和历史层面——以确保AI系统负责任地满足普遍需求。

总之,在这篇特刊中,我们呈现了一系列综述文章,涵盖了人工智能在医学和生理学中的许多开创性方面,从技术、应用和伦理角度进行了探讨。正如AI正在改变许多人的生活一样,它在医学和生理学中的影响也是显著的。感谢所有作者的宝贵贡献。


(全文结束)

大健康

猜你喜欢

  • MeiraGTx与Hologen AI达成战略合作MeiraGTx与Hologen AI达成战略合作
  • Tia在所有诊所实施Nabla的临床AI助手Tia在所有诊所实施Nabla的临床AI助手
  • 早期磷酸盐变化可能指示重症监护病房患者不适合人工喂养早期磷酸盐变化可能指示重症监护病房患者不适合人工喂养
  • 人工智能在公民科学中的潜力与风险人工智能在公民科学中的潜力与风险
  • Study Connect宣布在纽约成立并获得创新临床试验自动化平台的初始资金Study Connect宣布在纽约成立并获得创新临床试验自动化平台的初始资金
  • 医疗领域的人工智能:为何伦理指南对于安全采用AI至关重要医疗领域的人工智能:为何伦理指南对于安全采用AI至关重要
  • Diamyd Medical在ASSET项目中推进1型糖尿病的AI筛查Diamyd Medical在ASSET项目中推进1型糖尿病的AI筛查
  • 美国医生对残疾人的偏见可能源于医学院教育美国医生对残疾人的偏见可能源于医学院教育
  • 谷歌云医疗主管谈人工智能现状谷歌云医疗主管谈人工智能现状
  • 新AI模型可通过心电图识别心脏病高风险女性患者新AI模型可通过心电图识别心脏病高风险女性患者
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康