人工智能已不再是医疗健康的未来图景,而是正在重塑患者的诊断与治疗方式。其中最具突破性的进展涉及能感知并响应人类情绪的系统:例如西达赛奈医疗中心(Cedars-Sinai)的Connect平台会根据患者情绪调整护理方案;CompanionMx通过分析语音和面部信号检测焦虑;Feel Therapeutics则利用情感感应可穿戴设备实时定制干预措施。
与此同时,临床工具正在快速进化。医院将大型语言模型(LLMs)与Nabla、Heidi等AI笔记应用结合,这些应用能倾听、总结并回应医患对话中的细微差别。仅医疗转录技术领域的投资去年就达到约8亿美元。
向适应性AI的转变
这些进展标志着AI正从自动化任务转向适应性系统。传统AI加速了文书工作并处理数据,而适应性AI则帮助临床医生做出更精准的判断、深入理解患者需求并实现情境化响应。在乳腺癌筛查、基因组学和药物研发领域已能观察到这种转变,高质量数据和持续验证正推动实质性进展。
当情感感知工具被负责任地设计时,它们能强化医患联结、实现个性化护理并缓解超负荷医疗系统的压力。但随着适应性AI普及,成功与否不再取决于技术精妙程度,而在于系统构建方式——真正有效的工具必须围绕人的需求灵活调整,契合患者需要、临床工作流程及护理现实。优秀的AI需要具备前瞻性并敏锐感知情境,能够服务患者群体的多元需求。
当然,最具同理心的AI也无法消除人类系统的固有缺陷。近期研究显示,医疗AI工具和基于LLM的助手经常淡化女性症状,对黑人及亚裔患者的关怀程度低于白人男性。AI不会净化现实世界的偏见,反而会延续甚至放大其影响。这种模式我们早已见证。
部署环节至关重要
正因如此,部署条件与技术本身同等重要。模拟同理心的系统未必能真正理解细微差别、情境或风险。缺乏明确的伦理边界时,所谓的"情感智能"可能制造虚假安全感。临床医生仍需做出最终决策,以保护患者并维系信任。AI可以成为护理助手,却不能承担人类责任的重担。
建立信任需要夯实应用基础。从项目初期就纳入患者、家属及照护者,能及早发现盲点,平衡同理心与实用性,同时明确自动化应退场、人类护理需介入的关键节点。我们与癌症意识信托基金(Cancer Awareness Trust)合作开发的癌症平台正是这一理念的实践范例,展示了共情设计如何创造可靠且真正有用的工具。
AI的目标不是取代人类,而是支持其专业能力并扩大影响力。理想状态下,我们应让机器处理复杂性和模式识别任务,使临床医生得以专注于人类最擅长的领域:行使判断力、建立情感联结并提供有温度的护理。机器或许能学会"关怀",但创造值得信赖、公平且有意义的关怀生态系统的责任,始终在于我们——这虽是挑战,却充满机遇。
Nicki Sprinz是ustwo公司首席执行官。
【全文结束】

