如果“机器人大兵”可以向人类开枪……

在《我 , 机器人》一书中 , 为了防止机器人反噬人类 , 科幻巨匠阿西莫夫提出了“机器人三定律”:第一、机器人不得伤害人 , 也不得见人受到伤害而袖手旁观;第二、机器人应服从人的一切命令 , 但不得违反第一定律;第三、机器人应保护自身的安全 , 但不得违反第一、第二定律 。
如果“机器人大兵”可以向人类开枪……
文章图片
如果“机器人大兵”可以向人类开枪……
文章图片

美军新闻处7月12日说 , 美国武器合约商波士顿动力公司为美军研制的世界最先进人形机器人“阿特拉斯”(希腊神话中的大力神)日前亮相 , 这一机器人将来或许能像人一样在危险环境下进行救援工作 。 美国国会规定 , 到2015年前 , 三分之一的地面战斗将使用机器人士兵 。
“阿特拉斯”特征——
身高:1.9米
体重:150千克
身躯:由头部、躯干和四肢组成;“双眼”是两个立体感应器;有两只灵巧的手 , 能在实时遥控下穿越比较复杂地形 。
能力超强:单腿站立从侧面飞来的铁球撞击不倒
由于“阿特拉斯”能像人类一样用双腿直立行走 , 令人联想起科幻电影中的“终结者” 。
波士顿动力公司展示了“阿特拉斯”的能力 。 比如 , 它在传送带上大步前进 , 躲开传送带上突然出现的木板;从高处跳下稳稳落地 , 两腿分开从陷阱两边走过 , 然后跑上楼梯;单腿站立 , 被从侧面而来的铁球重撞而不倒 , 等等 。
美国国防部高级研究项目局项目经理普拉特说 , 该机构希望“阿特拉斯”在灾难的恶劣环境中也能行动自如 , 比如能开门、爬楼梯和移动等 , 希望它能使用从螺丝刀到救火车之类的工具 , 还希望新手不用培训也能轻松使用这种机器人 。
为更好地开发“阿特拉斯”的能力 , 美国国防部高级研究项目局资助举办一个为其开发应用软件的挑战赛 , 目前已有美国航天局喷气推进实验室等机构的7支队伍脱颖而出 , 并于2014年12月进行决赛 。
【如果“机器人大兵”可以向人类开枪……】未来战士:美国1/3地面战将使用机器人大兵
2004年美军仅有163个地面机器人 。 2007年则增长到5000个 , 至少10款智能战争机器人在伊拉克和阿富汗“服役” 。
部署到阿富汗的智能机器人“赫耳墨斯”主要用于探穴钻洞 , 它身上安装有两个照相机 , 能爬进漆黑洞穴并向外发送图片;“背包”机器人则能在巷战环境中捕捉、分辨反美武装狙击手的细微动静;“嗅弹”机器人能灵敏地嗅出伪装起来的爆炸物;名为“仿生苍蝇”的机器人则可做一些复杂的手术……
美国国会曾通过法案规定:到2015年前 , 1/3的地面战斗将使用机器人士兵 。 为此投入美国历史上最大的单笔军备研究费1270亿美元 , 以完成未来战场上士兵必须完成的一切战斗任务 , 包括进攻、防护、寻找目标 。 据悉 , 美军未来一个旅级作战单元 , 将至少包括151个机器人战士 。
设紧箍咒:军事机器人程序变异或会毁灭世界
毫无疑问 , 未来战争中 , 自动机器人士兵将成为作战的绝对主力 。 但是 , 美国海军研究室在关于机器人士兵的研究报告《自动机器人的危险、道德以及设计》中 , 对军方使用机器人提出警告 , 建议为军事机器人提前设定严格的设计和使用“紧箍咒” , 否则整个世界都有可能毁于他们的钢铁之手 。
报告还指出 , 现今美国的军事机器人设计师往往急于求成 , 常常会将还不成熟的机器人技术急匆匆推入市场 , 促使人工智能的进步在不受控制的领域内不断加速发展 。 更糟糕的是 , 目前还没有一套控制自动系统出错的有效措施 。 如果设计出现错误 , 足以让全人类付出生命的代价 。
2008年 , 曾有3台带有武器的“剑”式美军地面作战机器人被部署到了伊拉克 , 但是这种遥控机器人小队还未开一枪 , 就很快被从战场撤回——因为它们做了可怕的事情:将枪口对向它们的人类指挥官 。
突破底线:一場伦理的灾难
早在2013年5月底 , 联合国人权理事会就在瑞士日内瓦开会 , 紧急叫停美、韩、俄、英、德、日等国各国研发“自动杀人机器人”的军备竞赛 。
人们担心 , 机器人会不会向人类倒戈一击 , 埋葬我们这个亲手创造出它们、躯体却弱于它们的智慧种族?
自从1950年科幻巨匠阿西莫夫写就《我 , 机器人》之后 , 这一直是人类的梦魇之一 。 从《终结者》、《黑客帝国》、《机械战警》、《太空堡垒卡拉狄加》等影视作品中 , 我们可以亲眼目睹可能成真的噩梦 。
自主的机器人成为战争工具 , 难以保证不滥杀无辜 , 很可能会突破人类的伦理、道德底线 。
联合国人权理事会特别调查员克里斯多夫海因斯认为 , 机器人没有感情 , 不会理解和辨别人类的情感 , 诸如复仇、惊慌、愤怒、困惑、偏见或者恐惧 , 并且机器人是无法识别眼前被杀戮者是敌是友 。
“而且 , 机器人无法为自己的行为负责 , 不应拥有决定人类生死的权力 。 ”
在《我 , 机器人》中 , 为了防止机器人反噬人类 , 阿西莫夫提出了“机器人三定律”:一、机器人不得伤害人 , 也不得见人受到伤害而袖手旁观;二、机器人应服从人的一切命令 , 但不得违反第一定律;三、机器人应保护自身的安全 , 但不得违反第一、第二定律 。
“其实 , 如果武装机器人走上战场 , 就破坏了‘三定律’中‘不得伤害人’这一天条了 。 ”著名科幻作家、《中国军队》杂志编委韩松说 。
事实上 , 自主的人工智能控制的武器 , 已经造成了巨大惨案 。 《军事世界》主编陈虎告诉采访人员一段历史——“1988年7月3日 , 游弋在波斯湾的美国海军‘文森斯’号巡洋舰 , 发现一架伊朗民航的A300客机将飞过其上空 。 因为舰上防空系统当时处于全自动模式 , 雷达误将客机识别为伊朗空军的F-14战斗机 , 因此自动发射了‘标准’防空导弹 , 直接击落客机 , 机上290人全部遇难 , 包括60多名12岁以下的儿童 。 ”
事实上 , 目前还没有一套控制自动系统出错的有效措施 。 一旦机器人士兵的程序出错 , 或者被人恶意篡改 , 很可能造成血流成河的惨剧!


    推荐阅读