当我首次读到一款人工智能模型能够预测一千多种疾病,且预测时间可提前至症状出现前二十年时,我的本能反应既包含敬畏也带着不安。
预测流感当然可行,但癌症呢?阿尔茨海默病呢?甚至心脏病发作的具体时间和地点?
这正是德尔福-2M背后的主张。这款新型欧洲AI系统由德国癌症研究中心(DKFZ)、剑桥大学和丹麦卫生机构的科学家联合开发。它不进行诊断;而是进行预测。
德尔福-2M的工作原理类似于语言模型,只不过它的"语句"由ICD-10疾病编码构成——这是医生记录诊断结果的简写代码。它通过学习这些编码的模式,就像ChatGPT学习词语一样。如果你患有高血压、肥胖症且有吸烟史,德尔福不会将其视为随机数据;它会看到一个具有明确后续发展章节的故事。
研究人员向其输入了来自英国生物银行的40万份匿名患者记录,并在190万丹麦病例上进行测试。结果显示:该系统对1000多种疾病的综合预测准确率达0.76,死亡预测准确率高达0.97,这一水平已媲美许多成熟的临床风险评估工具。
该系统甚至能生成反映真实人群健康趋势的合成"数字孪生体",同时不泄露任何个人身份信息。理论上,这可以帮助公共卫生规划者在应用于真实人群前进行虚拟干预测试。
我采访了该项目的一位合作者,他将德尔福-2M描述为"健康领域的天气预报,而非预言"。我很喜欢这种表述。它暗示了概率而非确定性——一份仍会随生物学和人类行为变化而改变的预测。
机遇与隐患并存
起初,我渴望相信这将彻底革新医疗保健。一个能在疾病形成前足够早地识别风险从而挽救生命的系统,听起来近乎乌托邦。
但随着研究深入,局限性逐渐清晰。数据集 overwhelmingly 以白人、中年人群和相对健康者为主。这意味着德尔福在面对年轻患者、医疗资源匮乏群体或罕见病患者时可能出现偏差。
一位我交谈过的临床医生精准总结道:
"它很卓越,但生物学不是代码。人体并不总是遵循既定模式。"
这句话令我印象深刻。因为无论德尔福多么精密,它读取的仍是相关性而非因果关系。它更侧重于捕捉通向疾病的隐形足迹,而非理解疾病发生的根本原因。
过度预知的不安未来
人工智能疾病预测可实现早期预防,但同时引发重大隐私与公平性质疑。在研读早期公众反应并与读者讨论发现时,情绪模式惊人一致:先是好奇,继而希望,最终转为不适。
其中一条留言尤为突出:
"想象一下,若医院用它在疾病发作数年前预防病情,该多么强大;但若保险公司用它拒绝为你提供保障,又该多么可怕。"
这正是核心困境所在。同一工具既能预防痛苦,也可能在错误手中加剧不平等。
研究团队强调所有训练均在安全、政府监管环境中进行,且个人数据从未留存于国家系统。即便如此,想象一个能推演我未来健康的数据库,仍让我感到些许暴露——仿佛隐私已悄然从一项权利演变为奢侈品。
长寿梦想与现实平衡点
我曾听技术专家谈论长远愿景:合成器官、细胞替代疗法和生物再生。有些人真诚相信AI预测是迈向工程化长寿的第一步。
一位我采访的未来学家告诉我:
"我们正走向疾病可选的时代。预测、预防、替换——这就是循环。"
这是个诱人的愿景,但或许过于理想化。世界 rarely 与我们的方程式合作。我怀疑到2045年我们不会看到永生,但我相信渐进式进步——通过早期干预而非晚期诊断赢得的数年健康生命。
这才是真正的故事。德尔福-2M不承诺永恒;它承诺时间。而这种形式的力量值得探索,即使它令我们不安。
数据与命运之间
报道德尔福-2M让我产生一个挥之不去的想法:当预测本身成为医学的一部分,会发生什么?
如果我知道自己45岁时罹患慢性病的概率,我会改变生活方式,还是对每个症状过度焦虑?这些知识会赋能于我,还是将我禁锢?
AI不仅改变我们所知的内容;它改变了我们所能承受的认知边界。这或将成为医学的下一个真正挑战——不是精确度,而是对预见性的情感耐受力。
目前,德尔福-2M仍属研究工具而非诊断产品。其创建者称其为"预防智能"的基础。在我看来,它的意义更为深远——这是对我们如何定义控制、风险与信任的文化测试,因为世界正日益将未来视为数据。
最终思考
德尔福-2M屹立于希望与谦卑的交汇处。它提醒我们,数据能揭示多少可能,而人类特质仍决定多少可能。
该技术并未预言未来。它告诉我们,我们的未来可能多么脆弱且可追溯。
倘若2045年到来时,AI正低语着我们的医疗命运,真正的疑问将不在于机器是否正确。而在于我们究竟有多想倾听。
【全文结束】

