机器人|美国陆地作战机器人揭秘:大国大杀器( 四 )


Stump还表示 , 安全永远是优先考虑的问题 , 但目前还没有一种明确的方法来确保深度学习系统的安全性 。“在安全的约束下进行深度学习是一项重要的研究工作 , 但将这些约束条件添加到系统中确实困难重重 , 因为你不知道系统中已有的约束条件是从哪里来的 。所以 , 当任务变化 , 或环境变化时 , 约束条件就很难处理 。
这甚至不是一个数据问题 , 而是一个架构问题 。"无论ARL的模块化架构是使用深度学习的感知模块 , 还是使用逆强化学习的自动驾驶模块 , 它都可以构成更广的自动系统的一部分 , 并满足军队对安全性和适应性的要求 。
整合起来的深度学习系统就能作战?
Nicholas Roy 是 MIT 机器人小组的负责人 。他形容自己是一个“煽动者” , 因为他觉得深度学习不应该被神化 , 所以他同意ARL机器人专家的观点 , 即深度学习方法往往无法应对军队所面临的挑战 。
“陆军时时深入新的环境 , 而且敌军总是尝试不断改变环境 , 所以机器人所经历的训练过程根本无法与军队的需求相匹配 。" Roy说 , "因此 , 很大程度上 , 深度网络的需求与陆军作战的任务是不匹配的 , 这是一个问题 。"
在RCTA(Rear Cross Traffic Alert , 后方横向来车警示系统)任务中 , Roy强调地面机器人的抽象推理 。他认为 , 当深度学习被用于具有明确函数关系的问题时 , 它就是一项有用的技术 , 但当你开始研究抽象概念时 , 就不清楚深度学习是否可行 。"
Roy说:“我对神经网络和深度学习如何以一种支持更高级的推理方式进行组装非常感兴趣 , 归根到底 , 这是如何结合多个低级神经网络来表达更高层次概念的问题 , 但目前我们还不知道怎么做到这一点 。"
Roy给出了使用两个独立神经网络的例子 , 一个用来检测汽车 , 另一个用来检测红色的物体 。与使用基于逻辑关系的、带有结构化规则的符号推理系统相比 , 将这两个网络合并成一个更大的网络来检测红色汽车要困难得多 。“很多人都在研究这个问题 , 但我还没有看到成功推动这种抽象推理形成的研究 。”
在可预见的未来 , ARL将通过让人类参与高级推理和偶尔的低级建议 , 来确保自主系统的安全性和鲁棒性 。人类可能不会一直参与机器人系统的研究 , 但当人类和机器人作为一个团队一起工作时 , 它们的效率会更高 。当机器人合作技术联盟项目(Robotics Collaborative Technology Alliance)的最新阶段在2009年开始时 , ARL已经在伊拉克和阿富汗呆了很多年 , 在那里 , 机器人经常被当作工具使用 。我们一直在想 , 我们要怎么做才能让机器人从工具变成球队中的队友 。"
当人类指出抓取哪个区域的树枝最有效时 , RoMan确实得到了一点帮助 。机器人对树枝并没有认知 , 这种世界知识(即人们常说的“常识”)的无知是所有自主决策系统的通病 。但如果有一个人能利用我们人类的丰富经验 , 稍微点拨一下RoMan , 那么它工作起来就会容易地多 。这一次 , RoMan成功地抓住了树枝 , 并将树枝拖走了 。
把一个机器人变成一个好队友很难 , 因为要赋予机器人何种程度的自主权是十分棘手的 。机器人的自主权太少 , 就需要人投入大量的精力来管理 , 这适用于处理爆炸物等特殊情况 , 但在其他情况下则效率低下 。但如果给予机器人太多的自主权 , 则会有信任、安全和可解释性等方面的隐患 。
Stump解释:“我认为我们要找的标准是 , 机器人的操作水平相当于工作犬 。它们清楚地知道在有限的环境下 , 我们需要它们做什么;如果它们去到新的环境 , 还会有少量的灵活性和创造力 , 但我们不期望它们用创新的方法解决问题 。如果它们需要帮助 , 它们可以向我们求助 。”
- 对自主系统的探索要延续下去
即使是作为人类团队的一员 , RoMan也不太可能马上在野外独立执行任务 。RoMan更像是一个研究平台 , 借由这个研究契机 , 可以探索深度学习的一系列复杂问题 。但是 , ARL正在为RoMan和其他机器人开一个软件 , 名为“自适应规划参数学习”( Adaptive Planner Parameter Learning , APPL) , 可能会首先用于自动驾驶 , 然后是更复杂的机器人系统 , 包括像RoMan这样的移动操控员 。


推荐阅读