医疗人工智能侵权责任研究

  • 来源:消费电子
  • 关键字:医疗人工智能,法律地位,侵权责任
  • 发布时间:2025-02-14 20:18

  姚静 李思琦

  【摘 要】基于医疗服务专业性和复杂性的特点,医疗人工智能相较于其他机器人侵权,在侵权责任认定上难度更大。通过对医疗人工智能侵权的法律问题分析,从界定人工智能法律地位、细化侵权责任主体、厘清侵权责任性质等方面进行探讨与建议,以此推动我国医疗人工智能法律监管体系的建设。

  【关键词】医疗人工智能;法律地位;侵权责任

  引言

  随着科技的进步,医疗人工智能正在日益广泛、深入地应用于医疗服务领域,其在诊断、治疗等方面展现出了巨大潜力。然而,医疗人工智能的应用也引发了侵权责任归属的新问题,这对现有的法律体系提出了一定挑战。本文旨在深入探讨医疗人工智能在侵权责任方面的法律问题,通过分析医疗人工智能侵权的现状、法律困境及完善路径,为构建适应新时代要求的医疗人工智能侵权责任制度提供参考,以期在保障患者权益的同时,推动医疗人工智能技术的健康有序发展。

  一、医疗人工智能及其立法现状

  (一)医疗人工智能的界定

  1956年的达特茅斯会议上,麦卡锡、罗切斯特等专家首次提出了“人工智能”这一术语[1]。随着医疗人工智能的研究发展,有学者认为,医疗人工智能即以人工智能为技术手段,在数字医疗的基础上,提供精确医疗服务的人工智能[2]。

  人工智能医疗对传统医疗和传统法律产生了巨大的冲击,法学界也在积极思考和回应其引发的法律问题。

  (二)医疗人工智能的立法规制

  目前,医疗人工智能尚处于初级的开发和应用阶段,国内外对于医疗人工智能乃至人工智能的法律规制都尚处于探索阶段。

  1.域外立法

  欧盟在人工智能相关法律制定方面一直走在世界前列,早在2017年出台的《欧洲机器人技术民事法律规则》里,就大胆设想人工智能可取得法律人格[3]。2024年3月,欧洲议会正式通过欧盟《人工智能法案》,与2022年欧盟《关于缺陷产品责任的指令的提案》结合起来,对人工智能产品存在缺陷并致害的侵权责任进行规制。

  2.中国立法

  近年来,我国关于医疗人工智能的行政法规、部门规章和地方性法规数量不断增多,医疗人工智能技术的应用逐步被纳入规范化管理。从更高层次立法进程看,《人工智能法(草案)》被纳入《国务院2023年度立法工作计划》,并于2024年再次确认,标志着我国人工智能立法正式迈入人大立法的新阶段。

  二、医疗人工智能侵权认定困境

  (一)医疗人工智能侵权责任主体不明确

  由于人工智能产品使用过程中的复杂性,人工智能侵权的责任主体一直存在较大争议。2015年英国发生了首例达芬奇机器人致死案件,该案最终认定了医务方对于事故的影响,从而以医疗损害责任的形式结案。但是,假使主刀医生当时尽到了其应尽的责任,那么病人的死亡结果又应该由谁负责?是达芬奇机器人的设计者、生产者、销售者,还是所有者呢?与传统的医疗侵害不同,人工智能的介入使得医疗过错的界定变得更为困难。在这种情形下,由于机器本身目前不能独立承担法律责任,医疗人工智能又存在“人机混合”的属性,若抛开机器自身存在缺陷的可能性而仅由医方承担责任的话,实在有失偏颇。

  (二)“技术黑箱”阻碍侵权责任认定

  医疗人工智能软件和算法缺陷的隐蔽性形成“技术黑箱”,使得作为“局外人”的我们无法知晓人工智能产品本身具体的运算过程,而只能知道其最终的演绎结果,这极易导致推理与演绎过程出现逻辑断链,从而难以认定因果关系。按照我国民事诉讼法确立的“谁主张,谁举证”原则,患者作为原告方,需证明医疗人工智能软件和算法存在缺陷、造成损害以及两者之间存在因果关系,承担较高的举证责任,造成“专业者不举证,举证者不专业”的局面。

  (三)侵权责任性质认定不明确

  在医疗人工智能侵权的问题上,我国立法尚未作出相应的规定,司法实践通常将此类案件纳入现行侵权法律框架。我国《中华人民共和国民法典》侵权责任编中,适用于医疗侵权方面的主要有产品责任、医疗损害责任和高度危险责任,但医疗人工智能侵权案件适用上述三种责任,均会存在无法消除的弊病。

  1.产品责任

  目前,我国将医疗人工智能产品视为医疗器械,进行规制。因此,当医疗人工智能造成损害时,适用产品责任具备合理性。这一责任适用的前提是产品存在缺陷,且损害是由于该缺陷导致的,但正如前所述,“技术黑箱”导致原告难以证明其中的因果关系。其次,由于我国尚无专业的人工智能缺陷鉴定机构,且尚未制定相关国家和行业标准,鉴定机构在处理相关事项时也步履维艰。最后,融合了深度学习和自主决策能力的医疗人工智能也带来了不可预测的风险,若损害是由于医疗人工智能自主学习做出的决策导致的,那么生产者就能用《中华人民共和国产品质量法》第四十一条中的免责事由来逃避责任,这明显不合理。

  2.医疗损害责任

  一方面,现阶段医疗人工智能的使用仍需要依靠医务人员的操作;另一方面,产品责任的适用场景不包括医疗机构或医务人员存在过错的情形。因此,在医疗人工智能侵权案件中,医疗损害责任存在可适用性[4]。

  然而医疗机构承担相应法律责任必须以医务人员的过失与患者的伤害之间存在因果关系为前提。在医疗侵权诉讼中,原告必须证明伤害是由于医护人员没能遵守当时的医疗标准,医护人员未能履行与当时医疗水平相符的诊疗义务。法院以“合格的医生应该做什么”为标准,与具有相同技术背景和专业知识的其他医生的做法进行比较,评估医生对患者的治疗措施是否合理。然而,随着人工智能这项新技术的引入,临床实践中的平均水平标准开始变得模糊不清[5]。可见,人工智能介入医疗活动,加大了医疗损害责任的过错要件判定难度。

  3.高度危险责任

  鉴于当前学术界对于人工智能属性的认定尚不清晰、相关立法不完善以及高度危险责任体系的开放性特点,一些学者也主张,医疗人工智能侵权案件适用高度危险责任。医疗人工智能虽然尚未被纳入法律规范体系内,但立法不可能对各种情形做出全面准确的预测。法律设立了高度危险责任的一般条款,即使该一般条款未明确责任承担,仍可通过解释阐明[6]。

  然而适用高度危险责任会存在以下问题。首先,高度危险责任可分为高度危险物致损责任与高度危险作业致损责任[7],

  学界对医疗人工智能造成患者损害应适用何种致损责任尚无一致的观点。其次,高度危险责任属于无过错责任。医务人员与医疗机构若作为危险活动或者危险物的作业人,将是赔偿义务主体;然而设计者、生产者、运输者这些参与人工智能产品从出厂到投入使用过程的人,得以逃脱责任,这显然不合理。再次,把医疗人工智能归为高度危险物或把人工智能参与诊疗过程的情况判定为高度危险作业,可能导致公众对人工智能产生误解,产生排斥心理,不利于科技进步与医学发展[7]。因此,高度危险责任适用于医疗人工智能侵权仍可商榷。

  三、医疗人工智能侵权责任制度的完善方向

  (一)明确医疗人工智能的法律地位

  具有健全的人体和人脑,拥有独立的决策能力,能够参与民事法律关系,这些是构成民事主体法律人格的必备条件[8]。

  很显然,即使是最先进的人工智能体,目前也难以符合这些条件。

  换个角度看,即使某些国家认可人工智能体的民事主体地位,至少在未来很长一段时间内也会因为财产受限制而无法独立承担责任,真正进行赔偿的还是医疗人工智能产品的生产者、销售者、使用者等有能力承担赔偿责任的主体。所以现阶段赋予人工智能法律主体地位,时机还不成熟。

  (二)构建多元化的责任主体

  1.设计者

  设计者包括外观设计者,也包括软件开发者。软件开发者处于人工智能产业链最核心的位置,是从源头代码防范风险最重要的主体。当前人工智能技术飞速发展,其产品更新迭代过程中不排除从设计阶段开始就存在设计缺陷,直至投入市场后该缺陷仍未被发现,最终因为该缺陷导致患者被侵权的局面。因此,医疗人工智能产品的设计者为其产品的使用者排除合理危险的责任尤为重要。

  2.生产者

  生产者不仅包括产品的最终生产者,还应包括零部件生产者。事故发生后,如果可以确定智能医疗人工智能损坏的具体原因,则由独立部件的实际制造商对该侵权负责;如果无法确定具体原因,或者机器以整体状态损坏,则由最终生产者负责。近年来,贴牌加工、商标授权的情况也越来越普遍,因为授权人能从中获利,所以除了实际制造者,商标所有人也应作为生产者独立承担责任。

  3.销售者

  受制于技术垄断,医疗人工智能产品的定价一般都十分昂贵,销售者可从中牟取巨大的利润,根据收益风险一致原则,要求销售者承担责任也无可厚非。《中华人民共和国民法典》第一千二百零三条第一款规定,因有缺陷的产品遭受损害的,被侵权人有向生产者或销售者请求赔偿的权利。

  4.管理者

  管理者对设备有定期维护保养的义务,若管理者失职导致人工智能出现故障,对患者造成侵害,可分为两种情况。一种情况是此故障十分隐蔽,使用者(通常是医务人员)无法在正常操作时发现,应由管理者为此承担责任;另一种情况是,使用者在“可能未能”的情况下,由于自身一定的过失造成了侵权的局面,笔者认为应由管理者与使用者共同对患者承担赔偿责任。

  (三)消解“技术黑箱”对侵权责任认定的影响

  1.完善因果关系认定方法

  破除“技术黑箱”是因果关系认定的关键,为了解决这一问题,可将“黑匣子”技术运用于医疗人工智能产品,在事故发生后作为重要的因果判断依据。黑匣子内的数据应由生产者自觉披露,如有隐瞒或恶意篡改数据者,则可推定其在法律上承担过错责任。此外,还可在开发之初加入可追溯性的模块,实现运算过程的可还原、可解释,便于事故发生后程序员进行溯源。

  2.调整举证责任分配

  医疗人工智能侵权案件中的被侵权者相较于其他主体,一般是弱势一方;设计者、生产者因为知晓产品的工作原理和过程,通常具有更强的举证能力。因此有必要将被侵权者的部分举证责任转移到设计者、生产者这一方,减轻被侵权者的举证责任。医疗机构在人工智能投入使用后,是与之接触最频繁的一方,相对而言也更容易发现潜在的不足,因此,医疗机构也应该对医疗人工智能设备、指令、操作等负有举证责任。

  (四)厘清医疗人工智能侵权责任性质

  1.产品责任

  适用产品责任的核心环节是认定产品缺陷。我国目前还没有权威标准,可参考风险效用原则,综合对比产品的有用性与危险性,以检查研发设计者是否采取了足够的安全保障措施,以确定产品是否有缺陷。

  生产者能否主张免责事由的争议点在于,产品缺陷是否在生产时就已存在且能被发现。笔者认为,只要该缺陷属于医疗人工智能产品本身的缺陷,无论是产品出厂时就已存在还是后天深度学习的结果,都应由生产者承担风险。

  2.医疗损害责任

  根据《中华人民共和国民法典》第一千二百二十一条的规定,如果医务人员未能履行其诊疗义务,导致患者受到伤害,那么医疗机构有责任承担相应的赔偿。现实中,人机协同模式下的医疗人工智能侵权行为,如果损害是产品缺陷和医务人员操作失误或医院管理不当共同导致的,应考量原因力,分别适用产品责任和医疗损害责任,由产品的生产者与医疗机构承担不真正连带责任[9]。

  由于科技水平的限制,人工智能专业鉴定机构的建立还需要一个循序渐进的过程,对于医疗损害责任的过错判定,可参考借鉴专家证人制度。我国也应该不断促进高素质人才培养与人工智能产业的发展,尽快促成建立专业的人工智能鉴定机构,满足日益增长的人工智能侵权鉴定的需求。

  结语

  人工智能赋能普惠医疗正在成为现实,人工智能在提高医疗服务水平方面具有广阔的前景。与此同时,人工智能医疗侵权中的法律问题,需要我们更为深入地思考法律、完善法律,为科技进步保驾护航,以确保医疗人工智能的发展符合人类社会根本利益的发展方向。

  参考文献:

  [1] 尼克.人工智能简史[M].北京:人民邮电出版社,2017:1.

  [2] 皮勇.论医疗人工智能的刑法问题[J].法律科学(西北政法大学学报),2021,39(01):134-148.

  [3] 郑志峰.人工智能立法的一般范畴[J].数字法治,2023(06):55-75.

  [4] 祁宝民.智能医疗机器人侵权责任研究[D].西南大学,2023.

  [5] 谈在祥,蒋雨彤.医疗人工智能侵权行为法律规制研究[J].医学与哲学,2022,43(14):60-65..

  [6] 杭广远.高度危险责任中抗辩事由的冲突与适用[J].人大法律评论,2021(01):267-288.

  [7] 马俊驹,余延满.民法原论(第四版)[M].北京:法律出版社,2016:175.

  [8] 杨立新.人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任[J].求是学刊,2018,45(04):84-96.

  [9] 王轶晗,王竹.医疗人工智能侵权责任法律问题研究[J].云南师范大学学报(哲学社会科学版),2020,52(03):102-110.

关注读览天下微信, 100万篇深度好文, 等你来看……