尽管人工智能的重要性日益提升,且许多人正在利用它寻求建议,但某些人群被告知在接受其指导前应谨慎行事。女性和有色人种被特别提醒,在遵循聊天机器人所提供的健康建议时需格外小心,因为这些信息可能存在不准确性。
曾在STADA健康报告中研究英国及欧洲健康趋势的Magali Geens表示,AI系统并不总能为女性以及非白人群体提供正确的信息。她解释道,当人们向类似Chat GPT这样的AI系统寻求建议时,它会通过整合互联网上的研究和数据形成回复。然而,这些数据往往已经过时,并且大量关于健康问题的研究历史以来默认以男性为主要研究对象,白人群体也在研究中占据主导地位。
Geens指出:“如果(女性)使用Chat GPT输入症状,所获得的数据和信息可能并不适用于她们。”她补充说,要想从AI中获得最佳的健康建议,需要依赖更新、相关且消除偏见的工具。将AI当作搜索引擎来获取医疗建议,最终可能会导致不准确的信息或结果确认偏见。若要获得个性化的回应,用户需要提供更多信息,例如身高、体重、家族病史和性别——但许多AI用户对此并不了解。
用户必须对其从AI获得的信息保持批判态度,而Geens认为,“解决这一挑战还需要几年的时间”。制药公司STADA的首席执行官Peter Goldschmidt也补充道,AI可以提供“信息,但无法做出明智的判断”。
根据这项调查了来自22个国家的27,000人的报告,女性对医疗系统的信任度低于男性。仅有55%的女性表示信任医疗系统,而男性的比例则为61%。
该报告还强调,未来对AI的投资必须“与促进公平、可及性和心理健康福祉的政策齐头并进”。报告指出,欧洲和英国在医疗领域需要“支持个人努力,激励健康行为,不仅要现代化医疗系统,还要使其更具人性化”。
AI已开始应用于英国的医疗系统,英国卫生安全局(UKHSA)正在利用该技术检测食源性疾病暴发、了解患者体验并使公共卫生指南更加一致。UKHSA首席数据科学家Nick Watkins博士表示,AI可以“增强公共卫生保护”。
他解释说:“随着我们不断发展和完善这些系统,我们在拥抱创新的同时也确保对AI输出进行严格的验证。这种方法帮助我们充分利用AI潜力,同时维持国家级公共卫生机构应有的高标准。”
(全文结束)

