依赖人工智能进行重大决策(如医疗决策)的隐患早已为人所知。正如IBM在1979年宣称的:“计算机永远无法被追究责任,因此计算机绝不能做出管理决策”。
一名医生使用笔记本电脑和平板电脑。图片由Shutterstock提供。
澳大利亚医学会去年8月发布的指南重申了这一观点,警告临床医生“人工智能绝不能取代临床判断,最终决策权必须始终掌握在医疗从业者手中”。一款面向患者、未经监管且能轻易替代全科医生的AI工具,至少从患者视角来看,将成为我们所知医疗体系的“潘多拉魔盒”。
本周,人工智能巨头OpenAI宣布正式进军医疗领域,推出ChatGPT Health。无论出于好奇还是绝望,急于理解自身健康状况的人们将被鼓励接入其他健康应用的个人数据、输入检测结果、查询症状,并提出原本会向医生咨询的问题。
OpenAI声称该功能旨在帮助人们理解检测结果、追踪“趋势”、准备就诊及解答健康相关疑问,但强调其不能用于诊断或替代专业医疗服务。
然而,ChatGPT Health对全球患者、医生和医院而言可能是一场潜在噩梦。寻求医疗帮助者将无法获得真正所需的支持,而数据隐私风险更是巨大且深远。
若医疗专业人员在治疗中犯错,APHRA(澳大利亚卫生从业者监管局)等专业机构将审查调查,以提出预防错误的建议或制裁失职人员。但当ChatGPT产生“幻觉”并给出错误建议时,谁该负责?OpenAI高管能否像我们的医生护士一样被追责?
ChatGPT Health注定成为“类固醇强化版”的谷歌医生或WebMD。在医疗专业本就受网络 misinformation 冲击的当下,当人们被诱惑绕过认证医疗专长而选择文本生成器时,对医疗行业的信任将进一步瓦解。
在社交媒体引发自我诊断的时代,患者无疑将利用AI工具“症状购物”,直至获得想要的答案。AI已以谄媚著称——它告诉人们想听的内容,强化有害的思想与行为。这将极大增加人们接受不当或不足医疗治疗的风险,甚至带来危及生命的后果。
AI的深层缺陷使其难以提供准确、循证的医疗建议。结合科技行业“快速行动、打破常规”的逻辑,提供医疗建议的聊天机器人注定导致大量误诊。
AI对创意产业的强大助力源于其运用统计学与海量算力生成新点子的能力。但鉴于AI工具频繁编造信息(即“幻觉”),允许其假装诊断或开药(如美国已发生的情况)无异于等待国家医疗危机爆发。谷歌近期已移除部分AI健康摘要,因其被查出呈现虚假信息,可能误导重症患者,这已证明AI“幻觉”在医疗领域的危险性。
与WebMD时代常将诊断指向癌症不同,我预测ChatGPT会采取相反策略——给出大多积极的检查结果,以此降低法律责任。
用户还必须高度警惕其敏感健康信息可能被网络罪犯和国家行为体访问。OpenAI已证实第三方漏洞导致姓名和物理位置泄露,使之成为网络罪犯与国家行为体的首要目标。
同时,用户需意识到数据是科技公司的宝贵资产。去年基因检测公司23andMe破产时,数百万用户的DNA数据被出售给制药公司。若OpenAI被出售(鉴于汇丰预计其至少2030年前无法盈利,这并非不可能),健康数据可能轻易流入医疗投机者之手。
在追逐“替代性收入来源”(科技行业对超精准广告与销售中介的委婉说法)过程中,私营医疗机构和保险公司将竞相获取OpenAI的高敏感数据。包括可穿戴设备生物特征、检测结果、MRI扫描和医疗记录在内的海量敏感健康信息,极可能被摆上拍卖台。
生成式AI的威力不容低估,澳大利亚应继续支持可为经济贡献数十亿的伦理AI项目。但若市场无法管控风险,政府与监管机构必须介入保护我们的健康数据。
医疗责任必须掌握在服务提供者手中。若AI公司意图部署“机器人医生”,就必须为造成的伤害承担全责,不能以“幻觉”为借口逃避。我们绝不会允许承认“幻觉诊断”的医生治疗患者,对AI亦不应妥协。
我们相信政府会为公共利益守护敏感数据,但私营公司需对投资者负责,因此对医疗AI实施强监管至关重要。唯有如此才能确保健康数据受保护且永不被商品化。
- 萨缪尔·斯宾塞 是作者、澳大利亚堪培拉大学兼职教授及亚里士多德元数据公司首席执行官。
【全文结束】

