AI|加州大学伯克利分校教授Pieter Abbeel: 最终我们要给AI 设置一个“关闭按钮”否则很危险( 二 )


另一方面 , 如果我想要落地一套系统 , 我不会从强制学习开始 , 而是从模仿开始 。 我会首先收集人们驾驶车辆、完成工作的示范 , 之后让机器人去模仿 , 这更加方便 。 之后再运用强制学习来提高、完善 。
《21世纪》:我们距离广泛使用家用机器人还需要多长时间?在发展家用机器人的过程中 , 我们面临哪些困难和机遇?
Pieter Abbeel:每个家庭都有不同的情况、布置 , 有的家庭有宠物或者孩子 , 常常会把房间弄得一团糟 。 因此 , 当我考虑设计机器人时 , 就需要考虑机器人将来工作环境的构造 。
我们可以在工厂里看到各种机器人在进行工作 , 但是它们只是在不停地重复同一个动作 。
《21世纪》:AI已经被广泛应用在自动驾驶、医疗服务和教育等领域 , 将来还会在其他哪些领域展现商业潜力?
Pieter Abbeel:我的博士导师说 , AI是新型电力 , 它将无处不在 。 我很同意他的观点 。 基于更多数据 , 很多人都可以对AI进行精准的预测 , 进而发挥其商业优势 。
在2020年 , 我看到的最大变化有:一 , 语言处理 。 今年 , 出现了一些预测性语言模型 , 如Google开发的产品 。 这些模型相较于之前有了很大的进步 , 人们会基于此开发出许多应用 。 比如对话机器人、运动机器人、娱乐机器人 , 它们可以和人们流畅地对话 , 进而提高机器语言转化的能力 。
二 , 机器人技术 。 许多事情不能仅仅靠重复动作来完成 , 你需要观察、反馈 。 未来几年 , 机器人将完成大部分人类的手部工作劳动 。
在这一方面 , 尽管人们最常讨论的是自动驾驶技术 , 但我觉得它的开发进展要比人们想象中的更困难 , 因为AI可能产生的错误是致命的 , 而没有公司愿意让你知道他们的系统可能会致命 , 因此这一技术的可靠性还不够 。 在实验室 , 你可能会开发出一个十分优秀的自动驾驶产品 , 但当把它引入现实生活中时 , 不同的车辆会遇到不同的驾驶员 , 系统很难达到高度的可靠性 。
《21世纪》:在诸如安全、隐私等领域 , AI面临了哪些道德挑战?我们能有什么解决措施?
Pieter Abbeel:的确很多人都有这样的疑问 , 因为我们看到过很多AI未被合理使用的例子 , 比如侦测工具失灵、警察抓错嫌疑人等等 。 因此 , 我们应该对AI的道德问题保持谨慎的态度 。 如果一个人犯错了 , 那他只是犯了一个错误 。 但是如果AI犯错了 , 那么将会发生无数次错误 。
问题的关键在于 , 如何在AI做出道德选择时测量它 。 尽管有时这一测量并不完美 , 但至少在测量后 , 我们可以开始研究并训练它做出更好的决定 。 在技术的发展下 , 会有好的解决方法 , 但的确还有很长的路要走 。
《21世纪》:当AI真正“觉醒”后 , 您认为它们会统治世界吗?
Pieter Abbeel:我目前对这个问题还没有答案 。 在现实生活中 , 一个人更聪明并不意味着他就有更大的权力 。 但是 , 如果AI比人类聪明上十万倍 , 或许AI可能会统治世界或赚很多钱 。 这取决于我们想要的是什么 , 是要控制它们 , 还是当它们足够聪明后做任何自己想做的事情?这是一个复杂的问题 。
《21世纪》:是否有什么措施可以防止事态发展到这一步?比如说设定一些程序的标准?
Pieter Abbeel:在伯克利有一个人类AI共存中心 , 我们也在研究怎样将AI置于控制之下 , 比如设置“关闭按钮” , 但可能一个机器人会通过肢体或情感的方式 , 阻止你关闭它 。 所以我们需要一个能够理解人类正在观察它 , 但不能完全理解人类意图的AI系统 。 我们不希望AI能够完全知道人类的需求 , 否则就会很危险 。
你不能给机器人十分明确、严格的目标 , 机器人需要知道它们并不理解一切 。
(作者:陶力,张晟 编辑:李清宇)
(责任编辑:李显杰 )


推荐阅读