近年来,生成式人工智能(AI)的快速发展使得能够理解和创造人类语言的机器成为现实。然而,“黑箱”问题——即无法清楚了解AI为何生成某些结果——变得愈发明显。随着AI被引入对社会有重大影响的领域,如医疗、自动驾驶、法律和政策制定,“可解释的人工智能”(XAI, eXplainable AI)已成为一种风险缓解的关键工具。
7月8日,在首尔江南区的韩国科学技术中心举行的新闻发布会上,美国华盛顿大学计算机科学系教授李秀仁(Lee Su-in,45岁)指出:“当AI犯错时,人类必须能够理解并纠正这些错误。”她补充道:“以一种易于人类理解的方式解释AI提供的复杂推理过程或结果,这是XAI的核心。”
李秀仁教授是XAI领域的领军人物,她开发了SHAP框架,这是目前最广泛使用的XAI技术之一。该技术可以量化某些信息对AI模型判断的影响程度。SHAP框架目前已应用于包括生物技术和半导体行业在内的多个领域,并获得了超过3.5万次的引用。
例如,当一个预测生物年龄的AI接收到健康相关数据(如一个人的体重指数、血压和运动习惯)时,SHAP能够具体显示哪些因素对结果产生了最显著的影响。由于这些贡献,她去年获得了三星湖岩工程奖,成为首位获此殊荣的女性。此次她访问韩国是为了在7月9日举行的“2025世界韩国科学技术大会”上发表主题演讲。
李教授以一款皮肤癌诊断应用程序为例,强调了XAI的必要性。她报告称,研究团队在分析了几款皮肤癌诊断应用程序后发现,存在大量误诊案例,如AI未能检测出皮肤癌或将正常皮肤误诊为癌症。
李教授解释道:“在这种情况下,应用XAI可以直观地显示图像中哪些部分影响了判断,并允许我们回溯推理过程。如果生成式AI负责提供答案,那么XAI则作为助手展示这些答案背后的原因。它们并非竞争关系,而是相辅相成的。”
她补充说:“目前,将XAI整合到生成式AI中的研究正在积极开展。”她还表示,在医疗、法律和政策制定等需要问责制的领域,人类理解AI判断背后的逻辑至关重要。
李教授提到,她在阿尔茨海默病研究中已成功整合了XAI技术。她表示:“虽然AI已被用于识别与阿尔茨海默病相关的基因,但XAI可以解释这些基因如何通过特定的生物途径引发疾病。”这有助于理解疾病的机制,并为患者设计个性化的治疗策略。
然而,可解释AI也并非完美无缺。李教授指出:“由于XAI的方法论多种多样,解释可能存在不一致或错误的情况,因此必须进行充分的理论验证。”她补充道:“即使当前的XAI并不完美,它仍能捕捉到AI大部分的错误,因此使用它是大有益处的。”
李秀仁教授毕业于韩国科学技术院(KAIST)电气与电子工程系,并于2009年在斯坦福大学获得硕士和博士学位。自1990年代末本科阶段起,她便开始研究AI,见证了这项技术的所有起伏。她表示:“即使是相同的技术,也会根据时代需求改变形式。”她强调研究人员理解时代潮流的重要性。
李教授还对韩国的AI政策方向发表了看法。她表示:“AI研究能力是一种国家竞争优势。将AI作为国家战略任务并进行投资是非常理想的。”她特别强调,在医疗和生物技术等信任至关重要的领域,XAI技术必须伴随发展。她总结道:“XAI不仅是AI发展的附加功能,而是一个必不可少的要素。”
不过,她也提到:“虽然开发适用于多种服务领域的基础模型是有意义的,但灵活采用国外优秀技术并基于其发展韩国的优势领域更为现实。”她表示:“AI仍然是一个不断发展的学科,必须支持可持续且稳定的研究环境以及长期资金投入。”
(全文结束)

