NASA的人工智能医生或是火星任务生存关键
作者:Talia Roepel 2025年9月8日 美国东部时间上午9:17
当前NASA的任务中,医疗风险尚在可控范围——具备紧急撤离条件、实时通信能力以及样本送返地球的可能性。然而对于火星等长期深空任务而言,这些安全保障将不复存在:既无法实施撤离,也难以获得补给,更受限于地火通信延迟。
NASA正在探索通过人工智能构建"太空医生"的解决方案,其中核心组件是机组医疗官(CMO)数字助手。该系统将辅助决策、建议评估方案并推荐治疗措施,宇航员还将佩戴生理监测设备,相关数据将由CMO数字助手实时分析。
这项技术路线在危险系数极高的火星任务中引发讨论:尽管NASA强调必须保持人类全程参与,早期测试也显示积极前景,但医疗人工智能仍存在固有偏见、数据安全风险以及责任界定模糊等争议。
NASA的AI医疗项目
该项目由太空医学运营业务部协同开发,其核心功能是为人类医疗官和地面飞行外科医生提供决策支持。AI系统可询问患者症状、调取医疗史,并指导船员完成诊断所需的物理检查,最终提供医疗建议。
NASA为此制定了可信人工智能原则,要求系统必须无偏见、具备科学准确性、保护患者隐私且不得危害人类。技术架构采用基于开源模型定制的大语言模型(LLM),运行于谷歌云Vertex AI服务平台。
在早期临床测试中,该AI展现出显著成效:对侧腹疼痛评估准确率达74%,耳痛评估准确率80%,踝关节损伤评估准确率高达88%。后续测试计划将涵盖更多医疗场景和医学影像分析。
医疗人工智能的潜在风险
尽管人工智能已渗透医疗领域,但《医学互联网研究杂志》(JMIR)2024年11月专题研究指出其存在多重风险。除成本高昂和开发周期漫长外,信任问题尤为突出——特别是在可能危及生命的医疗场景中。
该研究揭示两大核心问题:
- 训练数据偏见:历史医学研究过度依赖白人男性数据,可能导致对女性及少数族裔的误诊或治疗不足
- 责任界定难题:若火星任务中CMO数字助手的建议导致伤亡,责任应由AI开发者、执行指令的宇航员,还是地面指挥团队承担?
NASA强调其开发策略始终将人类置于决策核心,但面对深空探索的极端环境,如何在技术创新与生命安全间取得平衡,仍是待解难题。
【全文结束】