工作|人工智能“上岗”,你的饭碗还能保住吗?( 二 )


员工与人工智能不仅仅是在办公室里进行互动 。 协作机器人(cobot)在工厂中越来越普遍 , 它们被装备成与工程师们一起操作 , 把重物或者工具放到适当的地方;在仓库中 , 例如亚马逊的大型设施 , 机器人帮助人类工人挑选货物并打好包 , 以便送货 。
Julie Shahsh是麻省理工学院航空航天系副教授 , 也是计算机科学与人工智能实验室(CSAIL)交互式机器人组的负责人 , 他认为 , 开发出能够以自然和可靠的方式与人类互动的人工智能系统意味着能够预测并适应人类工作者的需求 , 或者换句话说 , 学习成为一名优秀的团队合作者 。
Shah说:“人工智能有着巨大的潜力 , 我们不是让人工智能来承担非常具有挑战性的工作(在这些工作中 , 是由人类来解析模糊和不确定的信息) , 而是让它去理解我们是怎样做到的并提供支持 , 让它提供正确的信息 , 提出建议 , 以便让人类能够有更多的精力去从事更具挑战性的工作 。 ”
她的研究集中在人工智能机器人怎样更有效地与人类工人互动——无论是寻找方法确保汽车生产线上的机器人在正确时间提供正确的材料 , 还是开发智能支持系统 , 以帮助人类完成很有挑战性的决策任务 。
她说:“我在实验室的所有工作都集中在开发能够像拼图一样整合在一起的人工智能 , 目的是增强人类的能力 , 而不是取代人类的工作 。 这背后的关键技术是能够推断出一个人在想什么?他们的精神状态?并预测他们下一步会做什么 , 在适当的时候参与进来 , 并提供正确的信息或者正确的物料 。 ”
这意味着要模仿人类擅长执行的复杂过程 , 例如 , 开发能够预测工人运动的算法 。
Shah说:“我的大部分工作都集中在‘怎样在正确的时间按照正确的顺序提供正确的信息?在装配线上怎样在正确的时间按照正确的顺序提供正确的零件?’这些是任务分配调度问题 , 这就是让我们的世界运转起来的动因 。 ”
麻省理工学院CSAIL在贝斯以色列妇科医疗中心(Beth Israel Deaconess Medical Center)进行的一个研究项目调查了人类在工作场所信任人工智能的意愿 。 该项目涉及到使用托管在一个人形Nao机器人上的人工智能系统 , 其为医院产房提供排程建议 , 在这种环境下 , 需要连续不断地即时做出决策来协调护理工作 。
负责人是护士长 , 她的任务是同时协调由10名护士和20名病人组成的团队 , 还要安排好20个房间 。 排程有很多可变因素 , 护士长要尝试预测一些因素 , 比如产妇什么时候分娩 , 分娩持续多久 , 等等 。
Shah说:“她们基本上是在医院各个楼层扮演空中交通管制员的角色 , 决定哪些病人去哪个房间 , 哪些护士分配给哪些病人 。 ”
人工智能系统被训练成复制护士长执行的排程工作 , 能够预测房间分配 , 建议把哪些护士分配给哪台手术 。 护士可以询问机器人 , 机器人通过文本语音转换软件给出建议 。
在现场试点演示中 , 护士90%的时间都会接受人工智能的建议 , 同时也会以同样的比例拒绝“低质量”的建议 。 来自护士的反馈是积极的 , 参与人员强调了培训新员工和分担工作量的好处 。
我们信任人工智能吗?
随着越来越多的员工在工作中与人工智能交互 , 员工及其企业都可能会提出疑问 , 什么时候适合依赖算法来做出重大决策 , 而什么时候人类的背景知识更有价值 。
每一种选择都有其相对的优势 , 而人工智能系统可以避免一些人类可能没有意识到的偏见 。 Athey说:“算法能够整合那些人类收集起来成本过高的信息” , 他列举了从求职者中筛选简历的例子 。
Athey说:“一个人在看简历时 , 可能会因为少数人的原因而对某所大学整体上有成见 , 但人工智能能够阅读同样的信息 , 更准确地评估这所大学究竟怎样 。 也许算法知道这是一所较弱的州立大学 , 但工程项目实际上是高度选择性的 , 而人类不会花时间去收集这些信息 。 ”
同时 , 人工智能算法也是容易出错的 , 程序中可能编写了一些意想不到的偏差 , 因此透明性对于保证人类知道某个算法有多可信非常重要 。
Athey说:“你不希望一个算法总是推翻人类的决定 , 而人类是不会同意的:这是与环境相关的 。 你需要建立一种能传达足够信息的算法 , 让人类能够理解他们是应该听算法的 , 还是应该听自己的 , 以及他们应怎样整合算法中的信息 。 ”
Shah指出 , 让一个系统可信并不等于让它值得信赖 。 例如 , 在航空工业中 , 由于飞行员信任不完善的驾驶舱自动化系统 , 导致了许多事故 。
她说:“我们知道 , 比较容易在一个系统中建立不适当的信任 。 你可以做一些小事:如果让它更拟人化 , 如果让它跟你说话 , 而不是把指令中的文本读出来 , 那么 , 人们就很有可能遵从系统的建议并信任它 。
使这些系统可信 , 帮助一个人适当地校准他们对系统的信任 , 这并不是问题;重要的是知道这些系统什么时候是在其能力范围内作出决定 , 什么时候超出了能力范围 , 这样 , 人们便能够进一步增强机器的能力 。 ”
她补充道:“我们经常问 , ‘人们信任系统的意愿有多强?’这个问题问错了 。 正确的问题是:‘这个系统值得信赖吗?’有可信的系统 , 还有值得信赖的系统 。 ”


推荐阅读