本文旨在检测应用于医学的人工智能(AIIM)的主要伦理原则和困境,并试图理解来自不同领域的医生对在其专业生活中使用AI系统的态度。如上所述,AIIM涵盖了医疗实践和临床决策中的许多领域,如诊断、治疗、疾病预测、患者管理、行政应用和电子记录,并提供了众多好处,同时也带来了关于医疗实践和医疗服务提供的伦理挑战。
伦理原则和决策制定
从伦理角度来看,对于看似有益的技术的研究需要询问“谁受益?”以及“对谁有益?”。潜在的价值观需要被质疑,以便提出一个价值导向的论据,从而达到伦理上令人满意的结论。Siau和Wang(16)认为,由于AIIM表现出特定的行为方式,我们可以应用伦理推理来评估其决策和行动。这种推理使Jobin等人(36)认为透明度、公正性、公平性、无害性、责任和隐私是AIIM伦理使用的关键词。通过检查基于AI的决策支持系统,Braun等人(37)注意到了诊所中医生、患者和机器之间互动模式的变化;他们从规范性挑战的角度质疑了这一点,即可信度、透明度、能动性和责任,并因此支持人类控制AI决策过程,以确保专业能力和患者利益(37)。
我们的研究不仅与文献中的建议和发现相似,还反映了医疗专业人员在临床实践中个人经验的反映。这项研究的结果表明,参与者认为保密性和隐私是最受风险的伦理价值观。他们强调了平衡利益与损害的重要性,并通过优先考虑患者福利来限制风险。他们重视AI的负责任使用,明确表示最终决策应由个人作出,自主权应与责任相称,明确界定各方职责,并由医生负责获得患者的知情同意。参与者警告了该技术的有害影响和滥用,并坚持AI系统应以实现正义、公平和共享利益为目标。医生们强调了普遍有效、可审计、诚实、基于人权的AI系统的使用,这些系统应由国际法和超国家伦理准则管理。受访医生要求AIIM提供普遍利益,展示透明度,并尊重人权。
我们的研究参与者认为AIIM具有减少错误风险、加快诊断速度、减轻工作负担和辅助医学教育的优势。AIIM特别适合分析放射学、组织病理学和视网膜摄影中的视觉数据。AIIM的其他好处包括更好的图像质量和更有序的数据存储。这些发现类似于Mintz和Brodie(18)的观点,即嵌入电子记录中的AI可以计算疾病风险并实现早期诊断。另一方面,Mittelstadt等人(38)正确指出,AI决策算法使用的证据不透明会导致不透明性,误导的证据会导致偏见,不公平的结果会导致歧视,变革效应会挑战自主权和信息隐私,可追溯性会导致道德责任,以指导正在进行和未来的研究。因此,Kempt和Nagel(39)在临床诊断背景下反复且批判性地阐述了使用AI的伦理和认识论挑战,特别是在医疗提供者和机器之间分配责任方面。正如Kempt和Nagel(39)所论证的,我们也在研究中强烈强调,在整个临床决策过程中,医生的首要地位和优先性至关重要,这也支持了AIIM作为第二意见来源的角色,以保障准确性、解释性和解决分歧。实际上,Grote和Berens(40)调查了医疗保健中算法决策的影响,如机器学习,涉及家长主义、道德责任和公平性。这一挑战证明了我们在保持自主权和责任之间的平衡以提高临床推理、提高患者利益和减少家长主义方面利用AIIM作为资产的必要性。
我们的研究确定了两种类型的AIIM风险:一种影响医生,另一种涉及可靠性。医生面临的风险是失业和作为人的贬值。这些恐惧可能是某些专业人士对AIIM持负面偏见的原因。患者数据如何与商业开发者共享被认为是可靠性的风险。数据偏差或不完整意味着AIIM对个体差异不敏感,导致系统对某一性别或种族更为有利。
由于AI可能会减少对人工劳动力的需求,因此担心它可能导致失业。然而,目前看来,在医疗保健领域,AI似乎起着辅助作用,并不打算取代医生,至少目前如此(26)。我们的研究表明,医生认为利润导向是潜在的不可靠性来源。文献强调了一系列与安全和保密数据传输相关的风险,并同意单方面的利润导向确实会带来多种风险(41)。安全漏洞可能对个人产生大规模影响,因此需要创建模型,以尊重个人权利、高度安全地存储数据,并建立监管框架以确保这些结果(42)。根据我们的研究结果,风险的优先级取决于优先事项的设定。这一问题也将在下面的“预防措施”部分讨论。尽管如此,数据的不可靠性,作为其中一个子主题,构成了另一个重大风险,可能导致对个体差异的不敏感。正如Currie和Rohren(43)所论证的,不足的数据集中的社会经济、文化和种族群体代表性不足会形成偏见(43, 44)。这个问题也与我们在研究中推荐的预防措施有关(参见“预防措施”部分)。在文献中,注意到弗雷明汉心脏研究(Framingham Heart Study)的具体例子,这是一项心血管健康队列研究。这些数据仅涉及白人个体,当应用于黑人时会导致不准确(41)。通过包括代表性不足的群体,数据集可以更具代表性,从而得出更准确的结果(45)。当少数群体接受劣质服务甚至无法获得医疗服务时,这是一个值得关注的问题(43)。我们的研究结果表明,当AIIM对个体差异不敏感时,平等可能无法实现,这一问题归类在“可靠性风险”之下。在我们的研究结果中,与可靠性相关的风险可以与文献中经常讨论的“黑箱”概念进行比较,这是关于可靠性、问责制和透明度的关键问题(46, 47)。受访者在讨论AIIM的可靠性时提到了这个问题。即使输入、输出和算法都是明确的,AI也可能做出对人类来说神秘的决策(48)。参与者质疑在AI造成伤害的情况下,责任如何正确分配——是医生、医院还是AI开发者负责?AI的黑箱性质可能引发伦理和法律难题(49)。正如我们研究的参与者正确警告的那样,AIIM中的黑箱问题危及患者中心医学的透明度(50)、问责制和解释性(51)。
随着AI在医疗保健中的扩展,透明度和信任变得至关重要。可解释的人工智能(XAI)有助于使AI决策清晰易懂,确保准确的结果和可解释的输出。XAI通过解释AI驱动的建议来维护医疗专业人员的信任,促进明智的决策。它还解决了偏见和公平性的伦理问题,确保AIIM系统是公平和可靠的。因此,将XAI集成到AIIM中可以增强透明度,支持患者福祉和尊严的伦理保护(39)。未来的AIIM发展应优先考虑XAI,以建立信任和问责制。
局限性
AI最有可能被采用的领域是放射学和机器人辅助手术。在这两个领域,AI通过简化任务来辅助医生。在我们的研究中,使用AIIM的一个关键局限性是对医患关系的损害。一些参与者将AI等同于没有情感的机器人,无法与人类进行有意义的沟通。参与者承认AIIM将快速且通常无误,但绝大多数受访者认为,不应放弃人类在决策中的控制权。即使在诊断决策过程中,AI似乎最可靠地适用,但关于让AI完全负责最终决策的担忧仍然存在。未来需要详细研究医生在面对是否接受AI得出的结论时的观点。
责任问题在AIIM的风险和局限性中扮演着核心角色。黑箱问题使整个问题复杂化。还有偏见问题:偏差数据会导致偏差决策。虽然偏见最初可能是偶然的,但少数群体的系统性代表性不足可能导致其成为系统性问题。根据我们的参与者,医生通过支持与其偏见匹配的结论而强化偏见的风险。正如Kiener(47)所说,如果AI不仅仅是辅助工具而是决策者,严重的问题可能会发生。因此,尽管在我们的研究中没有明确表述,但参与者倾向于同意与AIIM中的共生AI观点一致的观点,即AI系统与人类专业人员之间的协作伙伴关系,增强彼此的优势,以实现更好的患者护理(17)。这种方法结合了AI的数据处理能力与医生的判断和同情心,确保了适应性强且响应迅速的医疗解决方案,通过持续互动提高了准确性并建立了信任,将AI定位为人类专业知识的延伸而非替代品(42)。这种方法还通过确保人类在关键决策中的监督来解决伦理问题。
预防措施
我们在研究中强调的关键预防措施是教育和审计。不仅需要培训医生和其他医疗专业人员,还需要培训所有利益相关者使用AI。参与者认为现有的国家法律和宪法保障措施不足以限制风险,强烈呼吁全球审计和标准化。参与者还强调,应在AI在医疗保健领域的广泛应用之前准备充分考虑数据安全的法律政策。
随着AIIM的普及,医疗专业人员需要了解其发展及其在实践中的应用。为此,有限的AIIM理解、医生的负面态度以及对不真实风险的恐惧都可能导致专业人员在医疗服务中低估AI技术的使用(52)。Charow等人(53)发现现有的AIIM专业教育过于有限。他们指出,现有培训仅集中在AI开发上,而关于如何在辅助决策中使用AI的培训需要进一步发展。我们的研究结果与文献中的结论一致,倡导需要详细的培训,并进一步建议将这种培训扩展到所有利益相关者,而不仅仅是医疗专业人员。
另一个关键的伦理问题是透明度。AIIM的使用和发展必须透明,以确保所有利益相关者的保护。AI决策应该是可理解的,并且在需要时应可解释。我们的研究强调了实施审计作为预防措施的重要性。尽管已有法规,例如欧盟《通用数据保护条例》,但仍需要新的标准,以允许透明审计AIIM系统。IEEE的P7001标准《自主系统的透明度》正是为此目的而制定的(54)。
在他们的综合分析中,Floridi等人(52)深入探讨了良好AI社会的基准,并基于生物伦理原则(益处、无害、自主、公正和可解释性)调查了与之相关的机遇、风险、原则和建议。他们认为,AI的使用可以促进人类自我实现,增强人类能动性,提高社会能力,培养社会凝聚力,不仅实现由AI工具支持的良好医疗实践,还可以实现更加民主的社会(52)。因此,这可以与AIIM中的一种方法联系起来,称为“人在回路”(HITL),确保AI系统用于支持而不是替代医疗决策。HITL允许医生审查和覆盖AI建议,保持伦理标准和以患者为中心的护理(55)。这种方法通过实现持续的人类监督来缓解风险,这对于保持准确性和解决复杂的医疗决策至关重要。在AIIM中优先考虑HITL方法强化了医疗专业人员的核心作用,确保AI补充他们的专业知识。
参与我们研究的医生强调需要建立一个与人权和尊严以及伦理行为守则相一致的国际监管框架。这意味着土耳其所属的国际组织宣布的超国家建议和声明能够应对这一重要需求。
研究局限性
最后,需要承认我们研究的一些局限性。尽管我们的研究中的医生来自各种专业领域,但他们都来自土耳其的一家私立机构。由于定性研究的目的不是概括,而是尽可能代表不同的观点,因此有人可能会认为我们的研究结果不能准确代表不同文化和机构(例如资源有限的州立机构中的医生)员工的不同观点(28)。此外,由于AIIM尚未广泛使用,所表达的意见并不针对特定的实现(56)。未来的研究需要关注已经部署或正在开发的具体AI应用程序。此外,未来的研究将受益于使用定性结果来开发针对医生对AIIM态度的更具体领域的问题。
结论和建议
了解对AIIM的态度对于全面了解此类技术在未来更广泛使用时的潜在后果非常重要。我们的研究的基本目标是调查医生对其领域内使用AIIM的经验和想法,并阐明医生认为相关的伦理和社会问题。当总体回顾研究结果时,我们观察到AIIM带来的两难困境。除了优势之外,还有很多局限性和风险。研究表明,需要在医疗政策中嵌入预防措施以应对所讨论的风险。这些预防措施需要多维度。
根据我们的研究结果,很明显,医生相信AI可以帮助他们更高效和有效地工作,并认识到AI将通过节省时间带来好处。然而,他们也认为医生与患者的关系对治疗有积极影响,怀疑这种影响能否被AI系统复制。此外,他们对隐私和保护机密个人信息表示担忧,担心数据可能被滥用。受访者还强调了优先考虑患者利益的必要性。通过赋予医生在决策中的优先权,可以尊重自主权和责任。为了防止AIIM的任何有害使用,这一原则需要遵守。为了使AIIM得到良好的整合和接受,参与者表示,任何系统都应确保公平和平等,以及共享利益。它应惠及被排除在外和边缘化的群体。AIIM必须以透明、负责和可审计的方式运作。
一个最具挑战性的伦理问题是如何让不同社会经济地位的患者能够访问AIIM,鉴于其高昂的研发成本相比传统方法。相反,诊断AIIM可以通过降低诊断成本,为弱势群体提供医疗保健的机会。
总之,医生对AI伦理使用的观点可以作为该领域良好实践发展的基础。基于修订后的AI特定伦理原则构建的AIIM可以提供更好的医疗系统。我们应该记住Mittelstadt(57)强调“原则本身不能保证伦理AI”,并进一步调查相关代理人的观点和经验;这反过来又可以提高医疗实践中的准确性和精确性,并通过在临床任务中协助医生来减少工作量。功能透明并尊重公共利益的AIIM可以成为人类的鼓舞人心的科学创新。以人类尊严为首要原则开发的AIIM可以保护人类免受自伤,并以积极有益的方式改变医疗保健。
(全文结束)