科技失控

  • 来源:IT经理世界
  • 关键字:科技失控,瓦拉赫
  • 发布时间:2017-07-20 10:34

  新技术的研究和应用不可避免会带来伦理、法律等层面的争议,如何控制风险,避免让人们成为新技术的失错牺牲品?

  我们生活在技术潜力超乎寻常的年代。从纳米技术到合成有机物,新技术带给人类翻天覆地的变化。技术的潜力令人惊叹也令人畏惧。无人机和新的智能手机一样可能轻而易举引爆炸弹,3D打印既可以制作工具也可以制作枪支。超级计算机能轻松管理个人档案,也能易如反掌导致华尔街崩溃。

  但是新技术无法回答如何解决这些技术所引发的道德问题和投资风险。作为未来科技领域权威的道德和伦理研究者,瓦拉赫在《科技失控》一书中,探讨了作为技术的发明生产者和消费者如何应对飞速的技术发展所带来的道德模糊问题。

  Q:人们是否应该将决定权交给机器?

  A:杀人机器人只是把人类的决策权交给机器的一个例子。越来越多的非自主计算机和机器人有可能破坏了人(个人或企业)应为其行为负责的基本原则,并有可能为任何技术的部署造成的危害承担责任。谈到非军事机器人的用途将会使这一点更加清晰。大部分为家用目的开发的系统不应该被禁止,在许多情况下,他们的好处远远大于风险。尽管如此,它们稀释了负责任的人或企业代理这一核心原则,因此成为令人不安的先例。

  当事故发生时谁将被追究责任?汽车制造商们在责任问题解决之前是不愿意营销自动驾驶车辆的。但是目前,法律将判定自动驾驶车辆的制造商为大多数事故负责。如果让司机为一起他们无法在很短时间内掌握方向盘的事故负责肯定会很不舒服。除了解决各种技术难题,发生事故后的责任和法律后果如何管理是完全自动驾驶车辆投入市场速度很慢的原因。在很多情况下,赔偿责任的问题不能且不应由生产商或工程师决定。立法机构、法院、保险机构必须为此做出决定。

  解决这些社会担忧,一种可能的办法是对完全自动化驾驶汽车提供无过错保险。如果自动驾驶汽车提供了真正的净优势,那么立法机关可以制定政策,放松这一行业的发展。可以肯定,如果有一项立法可以减少自动化系统因为设计师和工程师有时无法预见的情况导致的系统故障和事故所承担的责任,那么肯定会大大促进整个机器人行业的发展。

  实践伦理学家和社会理论家对于减轻企业和个人的责任、问责制度,以及为越来越自动化的系统行为负责等引起的内在危险十分担心。2010年,为了表达他们的担心,提出了五项规则以重申人类不能逃脱对于计算机物品的设计、开发或部署造成的道德责任。50多名技术和道德领域相关的学者签字表达对这五项规则的支持。其中,“规则1:设计、开发或部署计算机物品的人应当为该物品承担道德责任。这项责任是与其他设计、开发、部署或知情情况下将该物件作为社会技术系统的一部分进行使用的人共同承担。”这一条如果被写进法律,则有望改变现状。

  Q:在您看来,如何防止技术失控?

  A:我在《科技失控》一书中,详细探讨了飞速的技术发展所引发的道德和伦理争议,并指出技术本身可能逐渐成为脱离人类控制的强大力量,我希望科学界、产业界、投资界能够真正将前沿科技的研究纳入到监管范畴之列,确保新技术的研究和应用符合伦理基本原则,以真正实现技术服务于人而不是变成伤害人、瓦解社会的祸根。

  应当继续支持科技创新及创新成果投入应用,但要加强上游预防,要控制存在潜在好处和风险的技术开发以及其投入社会使用的方式,对于加强新技术上游预防我有三大操作建议。首先,要建立负责任的工程设计文化。要让科技、设计担负对于人类社会的责任,最重要的就是完善相关的伦理和法律准则,在新科技产品、服务的设计过程中确保其安全性,并对于失控等状态下的责任作出预设。其次,建立灵活有效的监督机制。这其中涉及政府监管体系、非政府组织与相关行业组织共同参与的监督体系,还要加大新闻媒体对于科技创新问题的议程把握能力。第三,响应互联网时代去中心化运作的潮流要求,培育可以质疑、制衡专家的知情公民。

  文/宇文

……
关注读览天下微信, 100万篇深度好文, 等你来看……
阅读完整内容请先登录:
帐户:
密码: