一些医生利用社交媒体分享可信的生活建议、讨论新研究并传播可靠的健康信息——有时风格生动且拥有大量粉丝。然而,最新一批医疗网红甚至并非人类。
深度伪造医生——即由人工智能(AI)生成的、模仿医疗专业人士的视频——正越来越多地出现在社交媒体上。这些虚假医生兜售的内容从错误医疗信息到可疑产品不等,例如声称治疗脱发的精油或针对内分泌失调的补充剂。
非营利组织媒体事务(Media Matters)近期点名批评了八个涉嫌分享深度伪造医生视频的TikTok账号。去年,《英国医学杂志》(BMJ)的一项调查发现,英国三位著名医生的深度伪造视频被用于推销产品;澳大利亚贝克心脏与糖尿病研究所(Baker Heart and Diabetes Institute)也警告称,推广糖尿病补充剂的所谓该所医生视频实为伪造。
这些虚拟形象可能是知名医师的复制品,也可能是由机器人生成的虚构人物。
“令我震惊的是,这些合成医生的逼真程度极高,视觉效果搭配看似合理却可能虚假的叙事极具说服力,”澳大利亚阿德莱德大学弗林德斯大学(Flinders University)研究AI与医疗的医学与公共卫生副教授阿什·霍普金斯(Ash Hopkins)博士表示。“其潜在危害令人担忧,因为当错误信息以这种形式呈现时,人们很难分辨它并非来自真正的医疗专业人士。”
医疗深度伪造激增的原因
从某种角度看,这种现象与新技术催生的其他骗局并无二致,尤其是任何可被互联网和社交媒体放大利用的技术。
“深度伪造的近期激增反映了技术的快速进步,使得几乎任何人都能迅速生成高度逼真的合成内容,”霍普金斯指出。他还强调这是必然趋势:“斯图尔特·罗素(Stuart Russell)在其2019年著作《人本兼容》(Human Compatible)中提出,若像AI这样的技术可能被滥用于伤害或谋利,它就很可能被滥用。”
骗子的动机何在?散布医疗虚假信息者可能旨在制造困惑、恐惧或歧视;诱使人们拒绝循证治疗;或为推销所谓“神奇疗法”谋利。医生正是完美载体——通过将深度伪造伪装成可信专家,他们大幅提升了所推广内容的可信度。
“他们的叙事设计得极具说服力,通过编造逻辑、伪造证词或迎合大众关切来增强效果,”霍普金斯解释道。“这类内容对医疗知识有限或本就质疑传统医疗的人群尤其有害,因为他们更难辨别信息来源的非法性。”
医疗相关深度伪造属于日益增长的AI生成欺骗性内容现象。印第安纳州西拉法叶普渡大学(Purdue University)治理与负责任AI实验室联合主任丹尼尔·S·席夫(Daniel S. Schiff)博士表示,他和同事也观察到模仿名人及其他公众人物的虚假广告数量上升。
“它们甚至不必完美,只需足够逼真即可。”
深度伪造的工作原理
深度伪造的兴起始于2018年左右。早期深度伪造使用生成对抗网络(GANs)创建,这种机器学习框架让两个神经网络相互博弈:生成器尝试模仿图像,判别器则将生成内容与真实图像对比并指导生成器持续改进。
“当时生成的图像已相当逼真,”席夫表示。随后,扩散模型的出现彻底打开了深度伪造领域的大门,例如OpenAI于2021年发布的DALL-E、谷歌的Imagen、Discord的Midjourney以及Stability AI于2022年推出的Stable Diffusion。
扩散模型从带文本描述的噪声图像(如电视静态画面)开始,通过反复添加和消除噪声、接收反馈并识别重复模式,直至结果符合文本描述的真实效果。这些模型能在数秒内创建复杂图像。
“我们已达到这样的阶段:在海量图像和视频数据集上训练的神经网络能生成极其精细逼真的视觉效果,包括模仿人脸和表情,”霍普金斯指出。“同时,大型语言模型可生成连贯且语境相关的文本与语音。当二者结合时,便产生了能说话、表达情绪并自然移动的AI虚拟形象。”
对骗子而言更妙的是:这些技术只需极少输入即可创建逼真视频。
技术不仅日益先进,也愈发普及。许多AI图像扩散模型已开源且易于获取。十年前,创建深度伪造需强大算力来训练和运行AI模型,兰德公司(RAND Corporation)高级政策研究员兼公共政策教授克里斯托弗·多斯(Christopher Doss)博士解释道。
“随着模型更优更高效,所需算力已降低,”多斯表示。“人们开发出应用程序,将底层模型简化,使无技术背景者也能轻松操作。”
如今,任何拥有电脑或智能手机的人都能制作深度伪造。在近期一则TikTok视频中,化妆品化学家贾冯·福特(Javon Ford)指出,Captions应用(提供可自定义台词的易用AI虚拟形象)很可能被用于制作近期在该平台发现的医疗深度伪造视频。
(WebMD/Medscape视频团队使用Google Veo3在3分钟内创建了随附视频的AI画面;作为对比,视频首尾的图形制作耗时数小时。)
医疗领域的AI虚拟形象
社交媒体并非唯一可能出现酷似医疗专业人士虚拟形象的场所。
席夫在追踪AI趋势时注意到,越来越多的医疗公司使用虚拟聊天机器人或虚拟护士。例如Hippocratic AI提供虚拟医师执行随访护理和术前准备等任务,Mediktor则提供虚拟医疗助理帮助患者评估症状。这些并非深度伪造,因患者被告知正在与AI互动,但专家仍有顾虑。
文本转AI视频也被用于教育目的,将复杂医疗信息简化以便患者和医学生更易学习。
“其中一些工具或许有益,但许多未经充分评估,”席夫表示。“依我之见,许多工具与审慎的伦理思考并不契合。”
机器人或许能提升效率,但能否改善医疗质量?
“我的警示是:若你用AI自动生成患者消息或自动进行治疗等,这未必意味着你将有双倍时间与患者交流并建立关系,”席夫指出。“它也可能导致医院减少雇员或增加你的工作量。”
今年1月,代表逾22.5万名注册护士的美国全国护士工会(National Nurses Union)组织抗议活动,反对在 staffing levels(人员配置)不足且缺乏患者保障措施的情况下采用AI技术。
如何避免受骗
首要原则:别以为自己足够聪明就不会相信深度伪造。
2023年,多斯团队发表研究显示,一则关于气候变化的深度伪造视频欺骗了27%至50%的受试者。他表示,鉴于AI技术的飞速发展,如今可能有更多人上当,且结果在疫苗等热点健康议题上可能类似。
我们甚至更易受骗,因固有认知偏差仍在起作用。例如,若虚拟形象显得年长,人们可能本能更信任它。《公共健康前沿》(Frontiers in Public Health)2025年6月研究指出,年龄歧视在医生群体中普遍存在,观看年长AI虚拟形象的人比面对年轻形象者更信任这些“医生”。
民间智慧建议通过视频中手指过多、手部模糊、眼睛失焦或面部过度对称等破绽识别深度伪造。更细微的线索包括过于完美的头发、衣物纹理或扁平怪异的珠宝。但席夫不建议依赖这些——技术已足够先进。
“我不建议个人尝试当深度伪造检测器,”他说。
其团队正测试企业、学术机构及政府开发的深度伪造检测工具,但连这些工具都远未可靠。
最佳防御不在眼睛而在大脑:持续提升媒体与数字素养,并鼓励患者同样如此。
多斯指出的最大破绽是:“医生”在其他平台毫无踪迹。在信任TikTok医生前,务必跨平台查证。“若除该视频外找不到任何关于这位医生的信息,这很可能说明该医生并不存在。”
席夫尤其强调高风险医疗议题(如药物或疗法)时应如此:“当社交媒体弹出高风险内容时,应转向可靠医疗来源查证。”
要为假人创建完整数字身份(网站、新闻报道及其他社交媒体账号)虽非不可能,但需高度复杂骗局。
“人们最该做的是培养健康怀疑态度,并让这种态度驱动你寻求更多知识以验证所见内容,”多斯总结道。
毕竟深度伪造并非唯一假医生。席夫补充道:“有时是深度伪造,有时是廉价伪造或浅度伪造,仅用Photoshop或简单剪辑就能骗人。”
霍普金斯强调,亟需建立保障措施以最小化新兴AI技术(如深度伪造)带来的危害。部分责任在于AI工具开发商——他们需增强透明度以帮助观众识别AI生成内容。
“AI部署方必须确保生成内容可追溯,”霍普金斯表示。“这可通过水印、明确声明或专属品牌标识实现。”
当今主流社交媒体平台背后的公司也可加强行动——但它们会吗?
“社交平台企业普遍正回避预先标注此类内容,因此防护责任越来越落在个人身上,因为目前看来社交平台并不视此为自身核心责任,”多斯指出。
【全文结束】

