AI的使用在短短几年内迅速增长,其应用已经达到了超出监管的地步。NAIC大数据和人工智能工作组在国家保险委员协会秋季会议上听取了关于AI在健康管理、核保和理赔管理中的应用情况。
芝加哥大学NORC健康中心的Lauren Seno告诉与会者,健康保险公司越来越多地在健康管理中使用AI,特别是在预先授权方面。然而,她表示,AI缺乏必要的保护措施来保护消费者。一些州已经开始监管健康保险中AI的开发和使用,但未能跟上AI的快速普及。
Seno说,健康计划在护理管理的多个方面看到了AI的潜力,包括减少行政负担、解放医疗专业人员进行更高层次的任务以及加快审批速度。但随着AI工具被开发和部署以做出覆盖决定,一些问题也随之产生。Seno指出,在缺乏全面监管的情况下,利益相关者确定了一些潜在的风险,包括:* 使用有偏见的数据集训练的工具。* 开发带有错位激励的算法。* 机器学习系统自行发展出新的流程。
白血病和淋巴瘤学会的Lucy Culp表示,监管机构必须确保健康保险公司将具有适当临床培训和权威的人类置于影响患者护理的决策中心。
伊利诺伊大学的Zhiyu Chan表示,AI正在简化传统的保险核保流程,但消费者对其使用存在担忧。消费者担心算法偏见、透明度问题和隐私问题。这些问题引发了以下疑问:* 消费者是否有权质疑不公平的决定?* 保险公司是否应披露输入其AI系统的哪些信息?* 保险公司是否应告知消费者AI系统是如何训练的?
在家庭和汽车理赔管理中,AI可以通过分析文件、图像和过去的理赔历史来审查和处理理赔。但Chan警告称,欺诈分子可能逐渐了解AI系统如何判断理赔。例如,通过观察哪些类型的理赔容易获得批准,哪些经常被拒绝,欺诈分子可以推断出AI模型的运行规则和判断标准。一旦这些模式被识别,一些欺诈分子可能会故意调整他们的理赔以符合模型的“首选”模式,从而增加理赔被批准或夸大损失程度而不引起怀疑的可能性。
(全文结束)

