MIT做了只“无眼”机器人 更灵活、更机敏

  说起机器人爬楼梯,不少人可能会想起波士顿动力公司那只黄色的SpotMini机器人。如果你觉得SpotMini能通过视觉分析路况已经很棒了,那MIT最近推出的Cheetah 3肯定会让你觉得更惊艳,因为它不仅可爬楼梯可跳跃,而且一切都是在不依赖视觉的情况下完成。

  “要是它(Cheetah 3)踏在了一些镜头看不到的东西上,那该怎么办?我们不想过于依赖视觉。”其中一位参与到Cheetah 3项目的工程师Sangbae Kim说。那么,不靠视觉或任何传感器,机器人又是怎样获取了解路面情况?

  就和在漆黑环境中前进的人类一样,Cheetah 3靠的也是“摸黑前行”。具体来说,Cheetah主要依赖两套新算法:接触感应算法和模型预测控制算法。

  简单来说,接触感应算法可以帮Cheetah 3判断某只机械腿接触到的平面是否可“踏下去”,以及下一步又应该怎样反应。

  在用“脚”碰了一下物体之后,接触感应算法能快速判断Cheetah 3脚下的是脆弱的树枝,还是踏实的路面,它能不能踏下去。如果不可踏下去,算法会结合反馈数据决定接下来机械腿是要赶紧抬起来,还是通过摇摆来保持机器人整体平衡。

  至于模型预测控制算法,主要用于帮助机器人判断每踏出一步,到底需要用多大力,最终才能帮助机器人保持平衡。除了要“踏好每一步”,这个算法另一个任务在于帮助机器人在遇到意外阻力时,要怎样恢复到平衡状态。

  譬如说,有人在侧边踢了机器人一脚。Cheetah 3的算法就会运行起来:“我刚刚在左边遭遇了一个意外速度,我要怎样控制每只脚的用力状态,才能保持平衡?如果我在相反方向施下100牛顿的力,0.5秒之后会发生什么事?”

  视觉判断(通过摄像头等感应器)可能会面临干扰因素、不准确或情况不适用等问题。所以说,如果一个机器人过于依赖视觉,它对空间的判断必须得非常准确,这会使得它的反应非常慢。“因此,我们希望它可以更依赖触觉信息,这样一来,它能在快速移动时,仍可应对意外障碍物。”Sangbae Kim表示。此外,使用接触感应和模型预测控制感应也是出于对Cheetah 3产品定位的考虑。

  与旨在进入办公室和家庭的SpotMini不同,Cheetah 3的使命在于去到人类不适宜到达地方,深入譬如坍塌大楼的废墟或受核辐射影响地区等地方,进行拯救等工作。这也意味着它需要面对更复杂的路面情况和更黑暗的环境。不过,Kim表示,他们还是会为Cheetah 3装上视觉系统,但不想将视觉系统作为控制这款机器人的唯一依靠。

……
关注读览天下微信, 100万篇深度好文, 等你来看……
阅读完整内容请先登录:
帐户:
密码: