领导力:人机混合文化的设想

  • 来源:信息化文摘
  • 关键字:企业文化,人工智能,信仰
  • 发布时间:2019-10-12 08:25

  许多公司面临的一个巨大的领导问题是,它们必须建立能够促进人工智能可靠性的企业文化。这或许很难实现,因为许多人从内心就对技术有一种不信任感,而且这些担忧往往会因为害怕工作被取代而变得更加强烈。为了帮助员工与他们的人工智能同事融洽相处,管理者需要在缺失的中间地带安排好角色与互动。正如我们稍后将提及的,训练师、解释员和维系者的技能至关重要,但营造积极的人工智能增强体验也同样重要。请向员工说明公司正在使用人工智能来处理工作任务并重新设计流程,以及证明人工智能工具可以增强员工的能力并使他们的日常工作变得更加有趣,不再那么乏味。

  许多公司面临的一个巨大的领导问题是,它们必须建立能够促进人工智能可靠性的企业文化。这或许很难实现,因为许多人从内心就对技术有一种不信任感,而且这些担忧往往会因为害怕工作被取代而变得更加强烈。为了帮助员工与他们的人工智能同事融洽相处,管理者需要在缺失的中间地带安排好角色与互动。正如我们稍后将提及的,训练师、解释员和维系者的技能至关重要,但营造积极的人工智能增强体验也同样重要。请向员工说明公司正在使用人工智能来处理工作任务并重新设计流程,以及证明人工智能工具可以增强员工的能力并使他们的日常工作变得更加有趣,不再那么乏味。

  与此同时,企业也面临着一些问题。在讨论自动驾驶汽车的安全性时,丰田研究院首席执行官吉尔 ? 普拉特在 2017 年向美国国会议员表示,人们更容易宽恕人类犯下的错误,而不能容忍机器犯错。研究证实了我们在信任机器方面的不一致性和不确定性。2009 年的一篇论文指出,相比统计预测工具提供的信息,人们在估算股价时更信任人类专家做出的报告。2012年的另一篇论文发现,人们认为医生做出的医疗决策比计算机做出的医疗决策更加准确,并且更符合伦理。即使看到相反的证据他们也不会动摇想法。2014 年的一项研究发现,“当看到医生和算法犯了同样的错误时,人们更容易对算法失去信心”。同年,宾夕法尼亚大学的三位研究人员创造了“算法厌恶”这个术语,用来描述人们信任其他人,却不信任机器的现象。

  金融交易行业可能是算法交互方面的领先者。然而即使在这个地方,算法厌恶仍然构成 了 很 大 的 阻 碍。Systematica Investment(系统性投资)公司的创始人勒达 ? 布拉加于2015 年设立了一家投资管理公司,该公司只关注算法交易。虽然布拉加承认在交易过程中仍然需要人的参与(例如,投资人和卖空者,他们的工作基于对基本要素和公司管理团队的深入研究),但这些角色正在消失。她相信金融行业会逐渐趋于自动化。同时,Systematica Investment 公司的运营也遇到了阻力。她说,其中一项阻力就是人类更信赖人类做出的决策。“这个绊脚石就是“算法厌恶’情绪。”布拉加说。对许多应用而言,布拉加表示:“即使人类做得比算法更糟……,我们都更希望由人来做这项工作……我们要理性一些。”

  显然,有一些厌恶情绪是件好事。埃森哲的研究结果以及皮尤中心最近的一项研究表明,管理者应该鼓励员工在人工智能做出复杂变动时本着怀疑精神对其进行甄别。这项工作具有积极的意义,例如,银行可能会使用更完整的数据以减少放贷过程中存在的偏见。而在过去,银行家的偏见可能会导致有人由于种族、性别或邮政区号的原因而不符合贷款条件。医疗保健机构也看到,人工智能可以承担或扩展某些工作,从而使医生能够管理众多患者的信息,这在以前是难以实现的。

  当然,我们仍在探索人工智能到底能做什么,不能做什么,以及如何以最佳方式将其应用到业务流程中去。因此,我们不应盲目地信任所有的人工智能。良好的人类判断力依然是应用人工智能过程中的关键部分。但从软件机器人到多关节机器人手臂,人工智能已经以一种改变工作内容和重新定义组织结构的方式渗透到业务流程当中。那么,如何培养人们对机器人同事的信任感呢 ? 一种方法是对人工智能进行测试和训练,正如我们在本章前面提到的“实验”部分。在解决方案趋于成熟之后,你还可以应用下列基础工具和技术来提升人类对机器人的信任感,使人类变得更加理性。

  设立护栏一种方法是在基于人工智能的流程中设立护栏,从而使管理者或领导层能够对意外结果加以控制,微软开发的 Twitter 人工智能聊天机器人 Tay 就是一个例子。Twitter 在 2016 年推出的聊天机器人 Tay 可以在与其他 Twitter用户的互动中进行学习。经过几个小时的学习后,Tay 已经可以用庸俗的、带有种族主义和性别歧视的语言发布推文了,于是 Tay 的创作者赶紧将其从网上移除了。”面对这种情况,微软可以采取哪些保护措施呢 ? 或许可以通过关键词或内容过滤器,以及情绪监测程序对人工智能起到保护性的缓冲作用。同样,你最好能了解人工智能可以在行业中做什么以及不可以做什么,并确保其他人也知道界限所在。在企业内部,通常由维系者负责探寻人工智能的局限性和意想不到的后果,并设立护栏以保持系统正常运行。因此,护栏可以增强员工对人工智能的信心。

  通过人类把关92% 的自动化技术人员并不完全信任机器人。部分原因在于人们不能确定机器人怎样“思考”或下一步计划做些什么——机器是一个神秘莫测的黑匣子。这些技术人员中有 76% 的人认为最佳解决方案是以视觉输出的形式来显示分析结果,并通过遵循另一套度量标准的仪表盘加以衡量。”该解决方案简单易行,可以提升系统的透明度,使人类能够掌控全局。在这个过程中,解释者发挥着关键的作用。即使我们无法知晓人工智能系统的完整思维过程,但对其内部运作机制有一些了解十分有益。解释者应当知道人们在可视化过程中能够获得哪些有用的信息以及系统共享具有什么重要的意义。最大限度地减小“道德碰撞缓冲区”对优步、Lyft(来福车,美国第二大打车应用)和亚马逊的 Mechanical Turk(劳务众包平台)等服务公司而言,人工智能软件正在增强管理者的能力:人工智能软件可以分担工作任务,提供反馈和评级,并帮助人们追踪目标进展情况。如果这些公司的商业模式能够在全球范围内得到扩展并雇用数十万人,那么人工智能强化管理就是一项必要的创新举措。虽然人工智能软件可以减轻管理者的某些工作负担,但管理者不能松懈其基本的管理职责。这个问题很复杂,管理者需要在设计选择上做出慎重考虑。随着管理人员利用人工智能重新设置公司领导、员工和社会之间的关系,公司需要意识到这些变化会带来更大、更有影响力,以及意想不到的潜在后果。我们要建立新的机制来确保人工智能在增强管理者的能力时不会因失误而伤害到人类。然而,要建立这种机制,我们首先需要理解“道德碰撞缓冲区”(moral crumple zone) 的概念。碰撞缓冲区是汽车中的一部分,其设计目的是吸收碰撞所产生的撞击能量,以减小驾驶员遭受重伤的可能性。对于某些人工智能管理系统,当其发生故障时员工和客户可能会遭受撞击,这就削弱了人们对人工智能系统的信任感。

  人种学专家玛德琳 ? 克莱尔 ? 伊莉丝和硅谷企业家蒂姆 ? 黄创造了“道德碰撞缓冲区”一词。他们在研究中发现,在我们的数字世界中,像顺风车这样的服务会受到多种人为和非人为因素的影响,但是社会责任和法律责任仍然需要个人来承担。在 2016 年的一份报告中,伊莉丝给出了一个道德碰撞缓冲区的例子。”她曾叫过一辆顺风车送她去迈阿密国际机场。司机从地图应用程序上搜索了迈阿密国际机场的位置,并选择该程序提供的第一条路线出发了。伊莉丝在车上睡着了,而司机在使用应用程序方面是个新手,在伊莉丝醒来之后,她发现司机把她带到了一个离机场航站楼还有 20 分钟车程的地方。为了让伊莉丝准时到达机场,司机取消了打车平台发来的下一个顺风车订单,并免费把伊莉丝送到了目的地。虽然司机并没有义务这么做,但他还是做了,而伊莉丝也得以顺利登机。在这件事情中,地图应用程序的表现令司机和乘客都很失望,而乘客无法将这个不愉快的经历直接反馈给开发者,只能是司机和乘客间互相给一个评分。但是这个过错应该归咎于谁呢 ?地图应用程序提供的地址不正确,司机也不知道要开去哪儿,而且伊莉丝睡着了,中途也并没有告诉司机要纠正路线。伊莉丝对道德碰撞缓冲区做出了如下解释:在一个高度复杂和自动化的系统中,人可能会成为其中一个组成部分——偶然或有意为之—一当整个系统出现故障时,人将首当其冲地承担道德和法律责任。道德碰撞缓冲区不仅仅是替罪羊的隐喻,该术语还旨在唤起人们对自动和自主系统转移责任的独特体系予以关注。汽车中的碰撞缓冲区是为了保护人类驾驶员,而道德碰撞缓冲区所保护的却是技术系统本身的完整性。对于受算法管理的大众平台,人工操作员也可能成为吸收责任的“责任海绵”,例如,当系统出现故障时,他们就会收到来自客户的投诉。另外,如果搭载乘客的顺风车辆出了问题,顺风车主就要承担车子的开支(保险、汽油、磨损),并代表召唤顺风车的应用程序承担责任。

  以下是克服当前缺陷的一些方法。首先,创建算法问责制并找出问题根源予以修正,算法问责制不只是针对人类工作者。其次,容许系统中的工作人员对人工智能提出质疑,相信他们有判断能力,可以提供有价值的背景信息,并且能够确保服务质量。再次,完善评分系统,确保评分系统不仅可以用于评价人类,也能用于评价算法或机器。最后,反复寻找操控行为和责任承担之间的不匹配之处。为了充分解决系统开发过程中导致的道德碰撞缓冲区和责任海绵问题,企业需要花费大量的精力重新调整文化价值观和规范。

  法律、心理等问题的考量与合规部门开启持续对话。人工智能有助于合规进程——提取报告,组织数据——但也会带来挑战。有时候,适应性人工智能系统会做出意想不到的反应。我们要了解人工智能如何适应现有的风险管理协议,以及什么时候会增强协议以做出动态的人工智能决策。在缺失的中间地带的左侧,训练师、解释员和维系者在这一过程中发挥着重要作用。

  一般而言,当你允许员工修改人工智能系统的结果时——他们就会觉得自己是一个流程的执行者,而不仅仅是一个齿轮——他们会更容易信任人工智能。假设一位工程师正在寻找一种能使油井产量适度提高 2% 的可行方案,她可能会借助人工智能软件,调整软件参数并密切监测结果。例如,她可能会发挥维系者的作用,以确保软件按照预期运行。当她在人工智能的帮助下实现了自己的目标时,她在此过程中也逐渐信任了这一系统。有研究表明,让用户对算法施加一些控制会使他们认为该算法更加高级,并且将来更有可能继续使用该人工智能系统。

  然而,有时控制算法的做法并不可行。以给病人分配病床的复杂任务为例,有家公司开发了一个医院病床的数字模型并制订了患者分配方案。对于比较高效的医院,它们的床位使用率基本能够达到 70% 或 80%,而通过使用该公司的软件,医院可以分配 90% 以上的床位。管理者在一家医院中部署了这一软件,并在理论上预计床位使用率会出现 10%~15% 的增长,但实际情况并没有改观。经过调查,他们发现是人的动态因素所致。例如,长期与病房里同一批医生一起工作的护士会依靠经验做出决定。因此,当系统给出安置病人的建议时,护士往往会置之不理,因为他们不相信算法会做得更好。

  管理者该如何让护士信任人工智能呢?一个不错的方法是简单地解释一下为什么把某个病人安置在某个床位上(例如,解释者可以参与软件界面的设计,并对床位分配的基本原理给出简要解释)。管理者发现,在没有给出解释之前,人们更愿意相信自己的判断而不是算法的推荐。管理者同时发现,他们还必须给那些分配床位的人留有余地,并让他们拥有决策权。

  总的来说,为了让人们对人工智能系统产生信任,领导者要让那些使用系统的人参与到结果的生成过程当中,并使其对系统内部的运作有一种操控感,石油工程师的例子即是如此。在理想情况下,人工智能系统应当能够为其决策提供解释,并赋予人们一些决策自主权,就像医院病床的例子所示。基于信任的开发过程很漫长,并需要进行实验。不过案例研究表明,如果人、机器,以及协同工作的人和机器都是可信的,那么每个人获得的结果都将得到改善。

  摘自《机器与人——埃森哲论新人工智能

关注读览天下微信, 100万篇深度好文, 等你来看……