热搜: 佳士科技irobot开云电竞官网下载app机器人ABB机器人产业联盟发那科库卡码垛机器人机械手

俄科学家研发智能机器人

日期:2016-11-30 来源:天津日报 作者:zy 评论:0
标签:
  随着人工智能的发展,“杀人 机器人”成为全球普遍担心的问题。据报道,俄罗斯研发了一种“Flight”的机器人,它可以侦测和跟踪4英里(约6.4千米)外的目标。
  Flight是为保护俄罗斯边境而设计的,该国计划将它和爆炸系统结合起来使用,准确检测和攻击地面和空中的威胁,在它们远未进入俄罗斯领土和领空之前就消除它们。

  Flight机器人的关键技术包括雷达、高清成像和热成像系统,以及多个远程榴弹发射装置。这种机器人配备了一系列先进的监视工具,可以发现6英里(约10千米)以外的潜在入侵者,比如车辆、低空飞行的无人机,等等。
 ◆目前以监控和侦测为主
  俄罗斯工程师声称它的主要用途是监控。这种机器人不仅可以监测正在靠近的无人机的精确位置,还可以查出它们来自哪里。
  该项目首席工程师Dmitry Perminov对媒体说:“Flight机器人配备了一个用来侦测目标的雷达单元,可以侦测到7千米之外的人类、10千米之外的车辆。在侦测到目标之后,它就使用光学系统来跟踪它们。”Flight项目主管Leo Nosenko表示,该团队已经就如何与军方开展测试与莫斯科进行了讨论。军方尤其感兴趣的是,Flight机器人如何与远程导弹或火炮系统配合使用,在数英里之外以前所未有的准确性轰炸目标。
 ◆如何与爆炸系统结合使用?
  Perminov声称,Flight将持续改善和升级,以后它可以在没有人类监督的情况下满负荷运行。而它的终极目标是100%准确地区分敌军和盟军。
  这种作战模块可以安装在俄罗斯边境的安全塔上。在控制室里,一个操作员可以同时控制最多16个发射装置。
  战斗机器人搭载的热成像软件可以找到目标,然后对250米以内的目标进行打击,目前来说,在任何弹药发射之前,操作者必须先确认目标是敌人,而不是平民或者盟友。
  武器专家还在研究一种代号为“阿尔法装置”(Alpha Device)的高科技爆炸系统,以便和Flight监视机器人协同工作。阿尔法装置拥有几个榴弹发射装置,射程为400米。
 ◆如何阻止杀人机器人?
  如果你问问周围的人,什么是“杀人机器人”,他们可能会提到《终结者》之类的作品。自主杀人机器让人感到恐惧。一些机构正在力图阻止这种机器人的出现。
  但纽约州立大学的研究人员表示,这种努力意义不大,因为问题不在杀人机器人本身,而在于社会如何研发暴力机器人。 研究人员说:“我们不应该妖魔化杀人机器人,而且应该去了解创建、支持和验证这些机器人的工具、流程和操作程序。”
  参与了这项研究的教授特洛·卡普皮表示:“我们必须将‘杀人机器人’这个词解构为更小的文化技术。”
  这意味着我们不应该只注意杀人机器人是什么,它们可以做什么,也要把注意力放在它们的开发上。
  “我们需要倒回去看看机器学习、模式识别和预测建模的历史,以及这些东西是如何设计出来的,”卡普皮说。
  当把机器人用在战场上时,你需要机器人能够区分朋友和敌人,但敌人和朋友之间的界限有些时候非常模糊。所以卡普皮觉得,我们需要研究规则和伦理是如何转化为软件编码的。
  “战斗人员和非战斗人员、人类和机器、生命和死亡之间的区别并不是由机器人来定义的。虽然拉动扳机的可能是机器人,但这个实际操作是一系列的操作、过程和计算的结果。”
 ◆“禁止杀人机器人运动”主张
  对于如何界定和规范自主武器,学术界和一些非政府组织(NGO)的看法莫衷一是。
  2012年,一个NGO开始开展“禁止杀人机器人运动”。这几年来,我们已经看到过机器人在战争、执法、意外事故中导致过人类或动物死亡。这些机器人并不总是邪恶的——有些是被用来杀死入侵物种,保护湖泊和河流。但“禁止杀人机器人运动”反对的是自主杀戮的机器人,目标是禁止那些完全自主行动的武器。
  活动者认为,让机器来做出生或者死的决定,这跨越了基本的道德底线。自主机器人缺乏人类的判断力,不能像人类那样理解上下文。在瞬息万变的战场上,战士面临着复杂的伦理选择,他们要区分士兵和平民,评估攻击的必要性。但完全自主的武器没有这个能力,不符合战争法的要求。
  前面提到过,卡普皮认为,人们在为自主武器系统编写代码时,就已经注入了道德决定——“人类设计的这些系统,是在人类的环境中与人类一起开展行动,所以什么时候人类没有参与行动呢?”
  几个月前,达拉斯警方曾遥控机器人杀死过一名犯罪嫌疑犯,但这种机器人并不是“禁止杀人机器人运动”针对的目标,因为它是由人类远程控制的。随着技术的进步和机器人的普及,对“自主性”这个词进行明确的界定也变得越来越重要。目前广泛被人们接受的定义是:自主机器人是那种可以在没有人类控制的情况下执行任务的机器人。不过一些学者也提出了略有差异的定义。
  除此之外,还有更多的问题需要考虑。“禁止杀人机器人运动”的协调员玛丽·沃尔汉姆表示:“完全自主武器所带来的巨大的、多方面的挑战可能会吸引学者在学术上作出回答,但这种回答在现实世界中没有太大用处。对于一些现在不可能做到的事情,例如将伦理注入到软件编码中,一些研究者似乎抱有太大的信心。如果我们要对武器系统(特别是其瞄准和攻击功能)进行卓有成效的控制,需要的是制定法律和政策。”
  不管怎么说,这都是一个重大议题。无论你倾向于哪种观点,随着这种技术的迅速发展,我们都将在不久的将来看到这种辩论的再度延伸。
更多> 相关开云电子链接
0 相关评论

推荐图文
推荐开云电子链接
点击排行
Baidu
map