评论:禁止“杀手机器人” | 德国之声 来自德国 介绍德国 | DW | 28.08.2018

访问新版DW网页

尝鲜使用dw.com测试版。该版本仍在完善中,欢迎你提出宝贵意见!

  1. Inhalt
  2. Navigation
  3. Weitere Inhalte
  4. Metanavigation
  5. Suche
  6. Choose from 30 Languages

政治

评论:禁止“杀手机器人”

未来的战争,将通过机器人、无人机、无人潜艇这样的自主武器进行。德国之声评论员Nina Werkhäuser认为,在走到机器决定生死那一步前,就应该禁止这类武器。目前在日内瓦联合国总部,多国以及利益相关方正在就如何对待自主武器(也称“杀手机器人”)进行谈判。

(德国之声中文网)"我们认为,谷歌不应参与战争生意",今年早些时候数千名谷歌员工签署的抗议信在开头这样写道。这是前所未有的:员工要求首席执行官皮蔡(Sundar Pichai,在中国被称为"劈柴哥"),立刻停止与五角大楼合作开展"Maven"项目,该项目利用人工智能解读视频图像,旨在提高无人机打击的精准度。

美军为何对谷歌、微软这些软件巨头的工作如此感兴趣呢?因为他们自己无法编出这种高品质的程序,但却要一定拥有之。这些算法搭建出来的武器,可以自行识别目标并且对其进行攻击。未来的战争,将由少量军人和大量智能武器进行。人工智能的成就早已经有针对性地用于军事目的了。

人工智能带来军事革命

谷歌员工的抵制做法是有道理的。在信件中,他们涉及的是我们这个时代的一个核心伦理问题:电脑的学习能力越来越强,模仿人脑的准确度越来越高。这蕴藏着巨大的机会,但也包含着巨大的风险。世界主要军事力量正贪婪地将手伸向数据和算法,以便喂养他们的人工智能武器。

结果是:一旦发出去的导弹、无人机、鱼雷,就不再受人类的控制了。它们在数天、数周长的时间里自行跟踪目标,然而选择所谓的最佳时间将目标消灭。不再有将士给出最后的开火命令,这种半自动(武器)系统现在已经投入了使用。

这很成问题。有关生死的决定永远不应单独交到一台机器手中。与士兵不同的是,一个机器人不能区分作战者和平民;不懂国际法,也无法依据道德而行动。而且,这样的武器太容易遭到独裁者们的滥用,用来摆脱令人不快的批评者。这些武器可以逃避军备控制,也可能落入恐怖分子手中。

时间不多了

因此,禁止自主武器系统迫在眉睫。目前在日内瓦举行的联合国会议就这个问题进行谈判是一件好事。然而令人担忧的是,谈判可能无果而终。这里采取的是一致通过的原则,只要对于自主武器的定义还存在争议、只要像美国这样的国家继续鼓吹这类武器的优势,就无法达成共识。像德国呼吁的那种不具约束力的政治声明,也于事无补。留给定制规则的时间不多了,国际社会不应该白白让时间流逝于指缝间。

德国之声致力于为您提供客观中立的新闻报道,以及展现多种角度的评论分析。文中评论及分析仅代表作者或专家个人立场。

DW.COM

相关音频视频