人工智能背景下算法歧视对宪法平等的影响研究

  • 来源:消费电子
  • 关键字:算法歧视,宪法平等,挑战及应对
  • 发布时间:2024-03-09 14:07

  李晶

  【摘 要】在人工智能技术飞速发展的今天,人们进入了大数据时代,算法作为一种新型的技术,在公安机关办案、银行信贷、企业商品交易等领域得到了应用。但是,任何事情都有其两面性,尽管算法为我们的工作带来了便利,但同时也为我们的工作带来了诸多的隐患。当前的算法歧视有三种类型:偏见代理的算法歧视、基于特征选择的算法歧视、基于大数据的“杀熟”算法歧视。在不同的地区,对算法的歧视存在着不一样的容忍程度,有的情况是对宪法的平等原则的威胁,另一些是在合理差异范围之内。在什么样的程度上可以被视为违反了宪法的平等原则,并应该采取什么样的措施,还需要进一步的研究。本文从三个角度对算法歧视进行了讨论,阐述了其对我国宪法中公平原则的影响,并对该问题提出了相应的对策。

  【关键词】人工智能;算法歧视;宪法平等;挑战及应对

  引言

  在计算机领域中,算法是一种利用复杂的控制架构实现运算的方式。简而言之,就是对某个特定的对象,将特定的指令录入软件中,再由该指令进行计算,得出最终的结果。它具有通用性、有效性、有穷性、确切性等特点,通用性是指可反复使用的,有效性是指可实现,有穷性是指算法的运算步骤是有限制的,而确切性是指算法的每一步骤都有确切的意义。这些特点保证了该方法的可用性和易用性,而且该方法可以突破人类的计算量限制,做出科学、高效的决策,因此受到了很多人的欢迎,一些人甚至相信,这种方法可以“包治百病”,给人类做出最好的决策。

  “算法”无疑是一柄“双刃剑”,其在一定程度上放大了人类的歧视,损害了民主政治、平等文化、和谐社会与绿色生态、市场经济和谐发展。无论是在道德和法制方面,都有严格的规定禁止歧视,包括算法上的歧视。由于存在于资本内部的算法歧视,破坏了市场的稳定,因此必须对此加以规范,政府也对此情况尤为重视,进行了有力的监管。例如,在2021年4月16日,阿里巴巴被处以182亿元的行政罚款,而在2021年的4月26日,美团以“二选一”等垄断方式被发起诉讼,唯品会、百度、腾讯等网络公司,都因为垄断而遭到了惩罚。就我国现行的反算法歧视而言,虽然已有不少学者对其进行过相关的探讨,但其在立法层面上的指导作用并不显著。我国《宪法》在平等原则上为规制算法歧视提供了宪法的依据,平等原则作为宪法的基本内涵,[1]充分利用其宪法功能,为我国的反歧视制度与国家治理体系的建设和管理水平的现代化,提出了具有宪法意义的价值导向,从而推动反算法歧视问题的治理有效性。

  一、偏见代理的算法歧视对宪法平等的影响

  偏见代理的算法歧视,就是利用个体识别数据的延伸,利用各种相关性和特征的关联性,从而实现了对个体的歧视,甚至造成不公正的结果。算法出现歧视性后果,并非是算法制定者的故意而为,而是由于他们在设定算法时逻辑有很大的缺陷,从而使得理性和感性因素的混合造成了歧视性的结果。

  算法的决策与预测都是以基本的数据的客观性和中立性为依据的。但是,实际情况中也出现了行为与当事人没有对应的情形,从而导致在这种情形下进行算法实际上是不公平也不正确的。针对因数据伪造而造成的算法歧视,其关键是要对其进行严格的数据审核。面对大量的信息,应该让那些使用算法筛选的人来负责,基于他们自己的构建基础增加找出差错的可能性。[2]

  因为大多数情况下,虽然有人愿意去维护自己的权益寻求法律对个人信息保护的救济,但个人的诉讼成本、提供证据还是证明因果关系,都很难向法院提起侵权之诉,[3]付出的成本与收益并不相符,很多人可能更倾向于放弃,这使得算法决策者怀有很强烈的侥幸心理。哪怕有一小部分维权者,也能用大多数人的亏损来弥补。《个人信息保护法》第8条明确指出,审查机构必须保证信息的安全性,但并未明确规定是否仅限于使用算法进行信息的加工,同时由于很多公司将信息处理分包给别的公司,导致了信息保障是由两方共同承担或仅由一方承担也不甚明确。但从保护个人信息和隐私的角度,个人信息一经传递至其他公司,无论它是否要对信息进行处理,都负有保障信息不外泄的安全责任。

  原本人类在对各项事务拥有决策权,算法产生以后大数据的收集使得一些信息内部存在着逻辑关系,数据来源于社会,社会差异化的背景下反映社会特征的数据本身是有差异的,例如美国刑事犯罪预测算法,可能更会将黑人或黑人聚集地区划分为犯罪风险更高的地区,[4]所以在社会本身就是存在歧视和偏见的。偏见代理算法歧视中更是夹杂了算法设计者自身的特点,如其个人的喜好,价值观念和固有逻辑都会在算法编辑中呈现,他所关注和收纳的大数据本身的偏见和歧视夹杂着自身的逻辑体系,在算法的运作中将展现的淋漓尽致,这就大大增加了被决策对象的质疑。

  基于偏见代理的算法歧视,算法决策者并不会主动将主观的价值植入算法中,之所以会有歧视性的产生,很大程度上是因为算法不透明或者审查问题。偏见代理型算法歧视呈现出“中立进—偏见出”的运行特征,即决策者在算法机器中输入了中立的数据,却得出了带有歧视性的结果。所以,仅对社会和经济利益作出决策,其方式和目的如果都是合理的,属于差异化的合理范围;但在涉及公民各项基本权利的情况下,对偏见代理的算法歧视应进行严格的审核,加强数据更新的监督体系,国务院也在2017年制定了《新一代人工智能发展规划》,其中就强调在人工智能快速发展的时期,要用好人工智能这把“双刃剑”,高度重视人工智能可能带来的风险,确保人工智能安全、可靠、可控发展。

  二、特征选择的算法歧视对宪法平等的影响

  特征选择型算法歧视采取了“偏见进—偏见出”的运行模式,即决策者在算法机器中直接输入诸如种族、性别等带有偏见的信息,以求得出带有偏见的计算结果。特征选择算法歧视的决策是以海量的数据为基础的,由于它的分析标准的选取、分类、赋值等都是人为地设定的,并且掺杂了人的主观意志,所以造成了算法上的歧视。[5]特征选取的歧视将具有歧视含义的敏感性信息直接导入系统中,这是传统的歧视方式在互联网上的体现,与以往的歧视相比,仅仅介入了大数据、算法等因素。

  算法的预测就是利用过去对将来进行预言,算法预测模型看似是对将来的,实际上也是对过去的。[6]例如,用不同所有者不同品牌的手机打开某购物APP搜索关键词“电饭锅”,就会发现后台推送的“电饭锅”数据和排名不尽相同,综合分析在此购物网站消费等级越高的手机所有者,其搜索“电饭锅”结果的前几名价格越高,消费等级越低或者没有在此网站消费过的手机所有者则被推送的是价格平价的“电饭锅”产品。不难看出,简单的产品搜索行为也会因为消费者的消费等级、消费习惯或消费偏好而不同,后台推送时会加强对被纳入该类别的个体的调查与研究,有时也会收集其负面讯息。例如,在谷歌搜索引擎搜索黑人姓名时,除了出现马丁·路德·金的介绍外,出现的大多是关于黑人犯罪的新闻条目,这正是基于算法偏见的导向性而得出的结果。出现马丁·路德·金的介绍也很难消除由这些算法造成的歧视,他们只会把这些杰出的个人看作是一个意外,而不会考虑个体积极因素的影响,这一事件展现出谷歌对黑人群众平等权的侵害。

  特征选择算法只有在基于特定人考虑的情况下做出选择,才符合合理差别待遇,而其他特征选择算法则明显违背了宪法规定的平等内涵。所以对于算法的管控,还是要先从算法决策者的角度进行规制,毕竟收集大量的数据最后还是要进行算法的处理,算法归根结底还是人类的智慧,[7]2019年我国实施的《电子商务法》第二章通过规定电子商务经营者的权利义务来实现对算法运用行为的监管。 针对算法歧视,首先,我们依然可以遵循“用规制人的思路来规制算法”,建构针对性的抑制算法偏见的监管机制,要求监管机关对平等权的算法侵害进行严查,其次,当公民的平等权受到算法侵害时,应当有诉讼途径可以要求侵害者停止侵害、消除影响、赔偿。

  三、大数据“杀熟”对宪法平等的影响

  大数据“杀熟”是一种典型的算法偏见。大数据“杀熟”型算法歧视主要表现在通过对计算机过往数据不断进行学习,然后采取价格歧视、特定推送等手段,实现“同物不同价”目的。例如,两个人使用不同品牌手机在同一款旅游APP搜索同一家酒店,手机显示出的价格大不相同,不常使用这款APP的消费者搜索到的房间价格要比经常使用此款APP的消费者的价格要低,这是因为平台根据消费者的使用习惯,故意利用“大数据”杀熟;此外,两个不同品牌手机在某APP会员的收费也不相同,高级手机要支付更多的费用。

  价格歧视分为三级,一级价格歧视在现实中比较少见,有观点认为基于大数据和算法,平台可以根据每个消费者的习惯、偏好、购买历史等进行用户画像,实现“一人一价”,“大数据杀熟”接近于一级价格歧视。[8]当消费者在日常讨论自己的商品喜好或者购买意向时,经常会出现打开手机购物软件就会出现刚谈论过的商品或广告,从而引起人们的注意,这很大程度上属于商家通过监听获取到的相关数据,这种商业竞争行为这种貌似合情合理,但其实已经严重违反了宪法的平等原则,也严重侵犯了公民的隐私权。价格歧视,这种不特定人群付出比其他人更多代价的价格歧视,实则与《宪法》中规定的平等内容相违背,并且它违背了同品同价、同质同价的市场交易的普遍规律。

  通常我们在医院因为取药处不提供塑料袋,不得不向旁边自助免费取袋机求助,扫过二维码之后的一番操作看似简单,虽然满足了用户的需求,但在不知不觉间用户的个人信息已经被采集,这些信息对于用户而言并无太多价值,但对于采集平台而言却是极具价值。用户的信息在不断采集中,后台也逐步完成了用户的画像,平台利于日趋完善的用户画像精准推送各类广告信息,从而产生巨大经济价值。

  算法歧视具有潜在性,即高价购买者不会意识到存在低价购买者的真实情况。在这些消费者来看,低价格是不存在的,其实这就等于剥夺了知情的权利和选择的权利,这不是一种合理的差别对待,而是一种不公平的待遇。类似的,特定推送其实是根据人们的搜索、聊天等自身的活动进行推送,但也不能完全排除了算法决策者利用一些关联来进行歧视。所以,当特定推送仅仅是为了定制化服务,就应该给用户一个明确的提示,告知用户这个特定推送是一种普通的技术,不会违背平等原则。对于用户而言,因为信息的采集较为隐秘,所以导致用户无从得知自己授权的个人信息是否超过了必要的限度,用户也无法知晓个人信息的实际用途及其利用是否合理。[9]

  越来越多学者认为对应大数据“杀熟”应主要从算法规制和个人信息保护两方面着手,我国在信息保护方面也制定了相关的法律,《个人信息保护法》13-18条规定,在处理个人信息时,个人信息处理者方必须征求信息所有者的同意。2020年10月正式施行的《在线旅游经营服务管理暂行规定》第十五条中也有明确要求:“在线旅游经营者不得滥用大数据分析等技术手段,基于旅游者消费记录、偏好等设置不公平的交易条件,侵犯旅游者合法权益”。与此同时,加强个人信息的保护,避免平台对信息的滥用也尤为重要,宣传消费者享有的各项数据信息权利,加大自身对个人信息的保护重视程度,劝导消费者在网上下单前多进行比较,择最优价格购买。如发现大数据“杀熟”现象已经存在,可以采用反向用户画像的方法,如卸载相关“杀熟”软件;搜索不相关的信息;换其他用户名重新登录等方式,增强自身权益保护意识,主动打破算法歧视带来的不平等。

  结语

  虽然算法在不知不觉间已经对人们的生活产生了深远的影响,但是这项技术却不能绝对地保持价值中立。虽然它对于便利人们的生活起到了至关重要的作用,但是也必须阐明它有可能会侵犯人的基本权利。偏见代理、特征选择以及数据“杀熟”的三种形式的算法歧视,对宪法中的平等原则提出了挑战。由于算法的歧视确实存在,而且其隐藏程度很高,因此必须明确判断的标准,随时关注它是否属于合理差别对待范畴,还是对平等权构成了威胁。算法歧视问题使算法无法充分发挥其积极效用,损害了用户之间的平等权与商家的利益,给下一步人工智能发展中的算法进步带来了阻力。

  针对由算法歧视引起的公平问题,首先要规范平台和平台内商家的定价行为,监督平台制定透明的价格规则,让消费者自由选择,保障消费者的知情权。二是重视对现有平台经营行为的监督,实现政府、媒体等对平台的第三方联合监管;三是要加强对大数据的监管,督促算法决策者对大数据的不断更新和优化,以客观公正的态度维护市场竞争的良好秩序;四是提高用户防范意识,严格把控手机的相关权限,提高警惕性和维权的意识。五是进行算法歧视治理法律制度的具体建构,公平作为算法的核心价值,应该要求主管机关出台相应政策予以规制。

  参考文献:

  [1] 李超. 人工智能算法歧视的法律规制研究[J]. 重庆广播电视大学学报,2020,32(02):42-48. DOI:10.3969/j.issn.1008-6382.2020.02.007.

  [2] 许晓慧. 算法歧视对宪法平等原则的挑战与应对[J]. 哈尔滨学院学报,2022(04):64-67.

  [3] 丁晓东. 论算法的法律规制[J]. 中国社会科学,2020,12(04):138-159.

  [4] 刘雷. 平等视角下算法治理歧视及其反歧视措施均衡[J]. 湘江青年法学,2020:58-74.

  [5] 刘玉绰. 平等权对算法歧视治理的宪法功能展开[J]. 科学·经济·社会,2022(01):66-79.

  [6] 洪丹娜. 算法歧视的宪法价值调适: 基于人的尊严[J]. 政治与法律,2020(08):27-37.

  [7] 刘朝. 算法歧视的表现、成因与治理策略[J]. 人民论坛,2022(02):64-68.

  [8] 张国栋. 大数据“杀熟”的是是非非[J]. 法人, 2018(06):58.

  [9] 金幼芳, 王凯莉, 张汀菡.《个人信息保护法》视角下“大数据杀熟”的法律规制[J]. 浙江理工大学学

  报,2021,46(06):693-701.

关注读览天下微信, 100万篇深度好文, 等你来看……