微软近日推出了BiomedParse,这是一款由OpenAI的GPT-4驱动的新AI模型,旨在分析医学图像并帮助识别疾病,包括各种癌症。这款工具于周一宣布,可以解读CT扫描、MRI、X光片、超声波和其他影像,以定位肿瘤等病理特征及其他生物异常。通过允许医疗专业人员使用简单的文本提示,如“病理性细胞”,AI能够精确定位图像中的相关区域,所需的手动工作量远少于依赖特定对象边界框的传统方法。
BiomedParse已经展示了其检测黑色素瘤、脑胶质瘤和囊样黄斑水肿等疾病的能力。微软的研究人员强调了其高效性和易用性,但关于其在临床环境中实际应用的问题仍然存在,医生在没有AI工具的情况下已经擅长诊断疾病。
微软的BiomedParse进入了不断增长的医疗AI领域。该工具的功能主要在于能够在最少用户输入的情况下识别和分割医学图像中的对象。传统方法通常涉及手动创建边界框来突出感兴趣的区域,这是一个劳动密集型的过程。BiomedParse消除了这一需求,简化了临床医生的工作流程。
医疗AI的伦理挑战
然而,将AI整合到医疗实践中仍面临诸多挑战。Permanente医疗集团的Stephen Parodi博士提出了医疗AI工具中潜在的偏见和伦理挑战,例如确保患者隐私和避免歧视性做法。这些担忧在整个医疗界都有所反映,因为AI模型可能会无意中加剧不平等现象。
微软公开强调了其致力于道德AI开发的承诺,提到了公平、可靠性和包容性等原则。该公司也面临挑战,包括AI幻觉——即AI生成错误或无意义的信息。为了解决这一问题,微软开发了Azure AI Content Safety系统和Response Augmenting System等工具,用于监控和优化AI输出,提高准确性和可信度。
微软并不是唯一在医疗保健领域推进AI技术的公司。谷歌正在开发MedLM和Med-PaLM等AI模型,这些模型旨在执行从总结医疗数据到检测乳腺癌的各种任务。谷歌还与肯尼亚的合作伙伴合作开发疾病检测工具,并在美国医院测试其AI驱动的医疗聊天机器人。BiomedParse与谷歌的MedSAM在医学图像分割方面具有相似的能力。
尽管取得了这些进展,AI在医疗保健领域的角色仍受到审查。虽然像BiomedParse这样的工具有可能彻底改变诊断工作流程,但它们必须应对伦理困境和监管监督。Parodi博士指出,不当使用AI可能导致患者被排除在外或出现有偏见的结果,强调开发者和医疗专业人员之间透明沟通的重要性。
微软的AI伦理举措反映了其对这些关切的回应。该公司最近因毒性测试不完整而将其WizardLM-2模型从公共平台移除,并继续完善其方法,以减轻AI在高风险环境中的相关风险。
(全文结束)

