机器人伤人缘于使用不当
这些触目惊心的事实,给人们使用机器人带来了心理障碍,于是有人展开了“机器人是福是祸”的讨论。原中国人工智能学会常务理事何华灿教授认为,智能机器人伤害人类的根源不在机器本身,而在于设计和制造机器的人类本身。人类不正确的使用智能机器人会造成对人类本身的误伤。其中包括在设计机器人的智能程序的时候,由于人类的认识有限,开始就存在一些设计漏洞,最终导致了杀人事件的发生。
面对机器人带来的威胁,日本邮政和电信部门组织了一个研究小组,对此进行研究。专家认为,机器人发生事故的原因不外乎3种:1,硬件系统故障;2,软件系统故障;3,电磁波的干扰。随着现代科技的发展,机器人的制作工艺越来越完善,专家们逐步找出了一些机器人失控的原因,并对这些造成失控的因素进行及时而有效的修正,因此,90年代以来机器人杀人事件已经鲜有报道。
其实,任何技术都是双刃剑,人工智能技术也不例外。人工智能技术可能会被两种不同政治派别,不同国家、地区的人来使用,就像原子弹的发明者爱因斯坦一样,作为科学家,他没有力量阻止政治家将一种科学技术用于战争,用于摧毁城市,杀死普通百姓。不少专家预测,未来的智能机器人可以具有喜怒哀乐的情感,高度的智能化可以让他们充当警察和战士,这样一来,人类就不得不冒着被机器人剿杀的危险了。
联合国呼吁暂停开发"杀人机器人"
5月30日,联合国"法外处决、即决处决或任意处决问题"特别报告员克里斯托夫·海恩斯(ChristofHeyns)在日内瓦向联合国人权理事会提交工作通报,呼吁有关国家立即暂停对"致命性自动机器人"("杀人机器人")的研发活动。
报告指出,"杀人机器人"已从由人类远程操控发展为由自带计算机软件和传感器控制,能够全自动执行识别敌人、判断敌情和杀死敌人等任务。它的潜在危害在于:这种机器人可能误伤已丧失战斗力的伤员和准备投降的士兵,因而严重违反国际人权和人道主义法。海恩斯强调,"机器人是否应该拥有决定人类生死的权利"、"谁为机器人'滥杀无辜'承担法律和道义的责任"等问题都需要国际社会深思与讨论。
因此,海恩斯表示,人权理事会应呼吁所有国家制订出台并实施相关国家政策,以暂停生产、组装、转移、收购、部署和使用具有杀伤力的自主机器人,直到国际社会就相关问题协商出一个切实可行的、具有法律约束力的框架。
据了解,美国军方对"杀人机器人"已进行了多年的研发。另外,美国、英国、以色列、韩国都部署了"机器人哨兵",这被认为是实现全自动军事技术的第一步。