机器人武器化:是未来还是隐患?

  • 来源:海外文摘
  • 关键字:机器人,武器化,隐患
  • 发布时间:2023-12-30 10:59

  刘小可/编译

  2020年11月27日,下午3点30分,一列车队驶入德黑兰的伊玛目霍梅尼大道。车内有一名重要人物——伊朗秘密核武器项目的总负责人穆赫辛·法克里扎德。当时,他与妻子正驾车前往乡村住宅,由安保车辆护送,然而在即将抵达目的地时遭到了袭击。

  几声枪响过后,法克里扎德驾驶的黑色尼桑汽车被击中,无法继续行驶。枪声再次响起,子弹击中了这位科学家的肩膀,迫使他走出车辆求救。随后,完全暴露在外的他又遭受了致命一击,而坐在副驾驶的妻子安全无恙。

  接下来,奇怪的事情发生了。一辆停在路边的皮卡车不知为何突然爆炸。事后,伊朗安全部队在检查皮卡车的残骸时,发现了一些机枪碎片。这是一把由电脑远程遥控的机枪,配备了多个摄像头。难道,法克里扎德是被机器人枪杀的?

  《纽约时报》的后续报道披露,这把机枪并非全自动枪械。据推测,袭击者位于1000公里之外,会根据皮卡车回传的图片判断扣动扳机的时机,并利用人工智能软件解决信号延迟的问题。

  这简直就是一场噩梦。互联网上流传的俄乌冲突的视频片段更是加深了人们的恐惧。在乌克兰战场上,无人机随处可见,从土耳其制造的“旗手”无人机、袭击船只的海上无人机,到能够投掷手榴弹的四轴飞行器。如果这些片段属实,那么现实情况只会越来越糟糕。

  | 机器人的新风险 |

  网上有这样一段视频:一架无人机将一只机器狗运送至目的地。机器狗落地后便迅速启动,背上还驮着一把机枪。在另一段视频中,一名俄罗斯人改装了一只商用机器狗,使其能够射出子弹。

  针对这些触目惊心的视频,2022年10月,波士顿动力公司与另外五家机器人公司发表了联合声明:“我们认为,改装远程遥控机器人或自动化机器人,为它们添加武器,遥控它们进入从前难以进入的他人工作起居之地,这些会造成新的风险,也严重违反伦理。将此类新型机器人武器化,会导致公众不再信任本能造福社会的机器人技术。目前有大量个人尝试将商用机器人武器化的事件,我们表示强烈反对,并将极力避免这种情况。我们希望,有关部门能协助我们一同提倡安全使用移动机器人。”

  现代汽车集团旗下的现代罗特姆公司,似乎并没有这方面的顾虑。2023年4月,现代罗特姆宣布,将与韩企彩虹机器人公司合作研发一款多足防务机器人。宣传片显示,这款产品其实就是配有枪支的机器狗。

  防务分析家、军事历史学家蒂姆·里普利表示,波士顿动力公司的声明不具有太大的实际意义。“就算机器人不配备武器,也依然会被用于战争。比如一架侦察无人机在发现目标后,由使用者决定射出炮弹,夺人性命。

  那么,这架无人机和可发射炮弹的无人机其实没有太大区别,它们都是攻击链中的一环。”里普利说。他还指出,侦察无人机在俄乌冲突中发挥了关键作用,既能追踪敌军动向,又能发现轰炸目标。

  由计算机控制的军事硬件通常由两部分组成:硬件本身与控制软件。在战场上,除了无人机,其他机器人尚不多见。不过,智能软件的应用已越来越普及。“英国的武器系统中内置了一系列自主软件,这很有必要。有了这些软件,士兵就能更快地作出决定。”伦敦国王学院的资深战争研究员马丁·迈克说,“比如一架负责探测地面热辐射信号的阿帕奇直升机,其机载软件能迅速识别潜在目标,甚至能给出建议,告诉飞行员哪些目标应优先处理。飞行员获得信息后,便能作出抉择。”

  | 防微杜渐 |

  军方显然希望拥有更多类似的武器系统,尤其是能与机器人适配的武器系统。美国幽灵机器人公司研制的机器狗(业内又称四足机器人)被誉为侦察利器,可帮助巡逻人员探测潜在风险地区。此外,它们也被称作杀人机器。

  在2021年10月的美国陆军协会年会上,幽灵机器人公司展出了一只“杀手机器狗”,它的背上顶着一把枪。这把枪由美国斯沃德防御系统公司制造,名为特殊用途无人步枪。斯沃德公司在官方网站上宣称:特殊用途无人步枪是无人武器系统的未来,而这个未来已经到来。

  英国皇家海军曾测试过名为曼塔的无人潜航器。该潜航器长九米,装载了声呐、摄像机、通信装置及干扰装置,进行水下作业。此外,2021年11月,美军与英军在莫哈维沙漠练习使用了无人机、机器人运输工具及人工智能技术,帮助英军在战场上变得更加致命。

  然而,就目前而言,即使是最精细复杂的自主武器系统,决策环节依旧需要人类参与。参与形式分为两种。一种是“人在环中”,即电脑将潜在目标呈现给人类操作员,由操作员决定如何行动。另一种是“人在环上”,即电脑给出目标的击杀顺序,虽然人类能随时操控电脑,但大部分决策由电脑作出。而更为极端的情况是,系统完全自主运行,在没有人类干预的情况下自主选择并除掉目标。

  “希望我们永远不会走到最后一个阶段。”迈克说,“如果把决定权交给自主武器系统,那我们就失去了控制权。如果系统认为,除掉人类领导者是对当前战局最有利的选择,那该怎么办呢?谁都无法保证这种事情不会发生。”电影《终结者》便描绘了类似的噩梦场景:人工智能机器人发起战争,誓将人类赶尽杀绝。

  弗吉尼亚理工大学教授费拉斯·巴塔尔塞相信,人类社会距离完全自主的武器系统还很遥远,但人工智能已发展到了危险水平。“人工智能技术还不够聪明,不足以让我们完全信任。但它们也没有那么蠢,所以人类会下意识地反应过来,不能让它们脱离控制。”他说。

  换句话说,若士兵全然信任人工智能系统,或许会让自己陷入更危险的境地。原因在于,目前的人工智能还无法处理没有学习过的情况。研究学者将意外情况称作异常值,而战争显然会造成大量异常值。“在战场上,意外状况随时随地都会发生。异常值简直就是战争的代名词,而目前的人工智能还无法很好地处理它。”巴塔尔塞说。

  即使解决了这个问题,我们依然需要应对棘手的伦理困境。举个例子,当人工智能作出了击杀的决定,你该如何判断它的决定是否正确?这与阻挠自动驾驶技术发展的电车难题是类似的。再比如,面对即将发生的事故,我们应任由其发展,致使五个人丧生,还是应该采取行动牺牲第六人,拯救这五个人?怎么做才符合伦理?

  普渡大学的教授索兰·马泰认为,解决办法或许在于,让人工智能战士意识到自身的脆弱所在。如此,它们才会重视自己的“生命”,并“推己及人”。马泰甚至认为,这么做或许能让战争变得更加人性化,“要让人工智能变得可信任,就必须将它们担心失去的东西赋予它们。”

  但即使是最具伦理道德的战争机器人也有一个硬伤,那就是无法抵御黑客入侵。“你这边研发一个武器系统,那边就会有人尝试破解它。”里普利说。这也是为什么机器人部队显然会成为敌军入侵的首要目标。若敌军将伦理道德从机器人的芯片中抹去,策反它们,那么后果不堪设想。

  迈克认为,要想控制这些可怕的武器,或许可以参考军事历史。“历史上让人类恐惧的武器有很多,比如核武器、化学武器、生物武器。如今各方签署了军备控制条约,不是因为哪国政府主动放弃了研发,而是因为大家在军备竞赛中发现,这些武器竟然如此可怕,所以才愿意坐下来好好谈一谈。”

  如今,无人机、机器人及其他无人武器越来越频繁地出现在战场上。在自主武器控制条约出台之前,想必还有一段胆战心惊的日子要过。

  编辑:侯寅

……
关注读览天下微信, 100万篇深度好文, 等你来看……
阅读完整内容请先登录:
帐户:
密码: