正文内容 评论(0)
“由于机器人没有人类的感情,它们不会理解和辨别人类的情感,诸如复仇、惊慌、愤怒、困惑、偏见或者恐惧。由于没有足够的法律问责制度,加上机器人不应该拥有决定人类生死的权力,因此部署此类武器系统可能令人无法接受。”
——联合国人权理事会特别调查员克里斯多夫·海因斯
联合国人权理事会定于27日在瑞士日内瓦开会,联合国人权理事会特别调查员克里斯多夫·海因斯建议立即冻结“杀人机器人”的研发和应用,联合国成员国将就此议题成立专门委员会展开讨论。
“杀人机器人”不断升级
1944年,著名科幻大师阿西莫夫在机器人短篇集《我,机器人》中,首先提出了《机器人三大定律》,其中第一条就是:“机器人必须保护人类的整体利益不受伤害。”
然而在好莱坞电影中,这一定律从未实现,从《终结者》到《变形金刚》,各种高科技机器人相互厮杀甚至杀人的场面屡见不鲜。
联合国人权理事会特别调查员克里斯多夫·海因斯宣称,这种行为正在变成现实,各国在没有相对道德和法律约束的情况下,正在加快研制智能“杀人机器人”的步伐,这一切应被禁止。
海因斯表示,自己作这个报告是受前段时间美国无人机在打击“基地”恐怖分子时误伤了周围贫民的事件的启发。
海因斯在报告中指出,这种“杀人机器人”将从由人远程遥控,发展至由计算机软件和传感器装置控制,进而全自动执行识别敌人、判断敌情和杀死敌人等任务。然而,这一技术突破是非常令人担心的,因为这种机器人可能误伤已经丧失战斗力的伤员和准备投降的士兵。海因斯还表示,由于“杀人机器人”缺乏人类的情感,所以会对人类的生命造成潜在的伤害。
操纵者对军事打击感到麻木
海因斯警告,杀人机器人可自行作出攻击目标决定,如果将它们补充到武器库,可能会“打开更大的潘多拉魔盒”。因此,海因斯希望由联合国出面,要求各国冻结“杀人机器人”的研发实验和实际应用。
虽然目前的武器系统背后都有人员在操控,但海因斯认为这种操作形式不可取。海因斯说:“战场上的局势瞬息万变,由于距离限制,很多情报并不会即刻反馈给后方的操控者,造成前方的武器系统判断失误。”
同时,海因斯认为,由于无人机驾驶员并不在现场,所以对军事打击更为“麻木”。
根据海因斯的报告,目前美国、英国、以色列、韩国和日本都在积极研发各种类型的智能或半智能“杀人机器人”。
无人机颠覆现代战争
关于“杀人机器人”,因发起国际禁止地雷运动而于1997年获得诺贝尔和平奖的美国人乔迪·威廉姆斯认为,“关于科技会完全改变战争的讨论一直在进行,当有人说这是不流血的战争时,我很愤怒。”
国际机器人武装控制委员会主席、人工智能与机器人技术教授诺尔·夏基认为,无人机参战意味着人类迈出了颠覆现代战争的最后一步。他说,目前所有的无人机行动仍处于人类操控阶段,“现在最大的问题是,谁在制定目标,谁在下令开火。这些杀人行为是否是自动化的一部分。”
夏基警告说,“机器人大战”给人们带来的远非科技进步的喜悦,而是忧虑。他认为,让机器人自己决定是否杀人难以保证它们不会滥杀无辜。真人士兵可以用常识判断眼前的女子是怀孕还是藏有炸弹,而机器人恐怕难以拥有这种思考能力。此外,“杀人机器人”虽有自主意识,但无法为自己的行为负责。
夏基认为如果恐怖分子利用“杀人机器人”取代自杀式袭击,后果将不堪设想,而这也许只是时间问题。
谈机器人大战为时尚早
知远防务研究院研究员周晨鸣表示,关于“杀人机器人”的讨论早在2005年就已经出现,但拥有人工智能的自主机器人一段时间内还不能用于实战。周晨鸣认为,目前讨论冻结研发“杀人机器人”只是伦理层面的考虑,现实技术尚且达不到自主机器人的程度。
周晨鸣表示,战场环境之复杂远非实验室模拟能比,所以自主机器人仍不能大规模在战场上布局。他说:“同样是可以用履带上楼的机器人,在实验室中可以安然无恙,但是实际战场上的地势复杂,还有各种爆炸,都会影响机器人的自主操作。目前在自主机器人研发上还有很多重大的技术难题,20年内不太可能实现。”
据周晨鸣介绍,美军目前正在试验一些自主意识的无人战车,但是以美国交通部的名义在做测试。“美国自2010年就开始测试这些无人战车,主要测试的是识别号牌、遇见红绿灯自动停车再启动等,”周晨鸣说,“美国曾在阿富汗战场中试用过,但最终只能根据设定好的路线完成简单的点对点运输。无人战车神经网络的自学习周期相当的漫长,但依然不能正常准确地识别红绿灯。基本的红绿灯都无法识别,在战场上更无法判断自己的动作。”
(文章来源:新京报)
本文收录在
#黑客
- 热门文章
- 换一波
- 好物推荐
- 换一波
- 关注我们
-
微博:快科技官方
快科技官方微博 -
今日头条:快科技
带来硬件软件、手机数码最快资讯! -
抖音:kkjcn
科技快讯、手机开箱、产品体验、应用推荐...