战斗机器人部队即将出现,是否有必要制定伦理准则?

2019-12-03 00:00:00      点击:

俄新社近日报道,俄罗斯将于2020年开始制订“机器人部队组建任务”路线图,并准备在2025年前完成有关科学研究、试验设计和组建战斗机器人部队等一系列计划,然后将这一新型部队纳入俄军管理体系。另外,俄军正在开发名为“木船”的机器人系统,以便统一指挥数种战斗机器人。消息一出,引起了人们的广泛关注和激烈讨论。

战斗机器人部队即将出现,是否有必要制定伦理准则?

1990年,国际知名学者周海中在经典论文《论机器人》中曾经预言:21世纪将会出现威武雄壮的机器人部队。如今种种迹象表明, 周海中的这一预言似乎要成为现实了。毫无疑问,未来战争中,机器人部队将成为作战的绝对主力,其威力绝对是远远超过人类的力量。

近年来,一些有关战斗机器人(也称“自主性武器系统”)可能给人类带来威胁的声音时有出现。如美国微软总裁布莱德·史密斯最近就表示,战斗机器人即将出现,人类社会需要寻找对策。他指出,需要制定一项新的国际公约来规范战斗机器人技术的使用。随着战争中战斗机器人的大量投入使用,一些公认的战争伦理将受到前所未有的挑战和冲击。

非政府组织“杀手机器人禁令运动”从人道主义观点出发,主张制定禁止研发战斗机器人的公约;目前,该组织的参加者包括来自57个国家地区的113个非政府组织。另外,许多科技人员也主张制定有关的公约;他们认为随着未来社会的不断进步,战斗机器人产生的问题可能会有所减少,但这些问题对国际人道原则的冲击仍将存在。

拥有先进机器人技术的美国、英国、俄罗斯、以色列等均拒绝禁止战斗机器人研发,这些国家的军队已做好组建和部署战斗机器人部队的准备。战斗机器人首次亮相是在阿富汗战场上,并在伊拉克、巴以等战斗和冲突现场偶露峥嵘。有俄罗斯媒体报道说,俄军已将部分新研制的战斗机器人送到叙利亚接受实战检验。

有专家发出警告,随着世界上多个国家不顾法律和道德后果加紧开发战斗机器人,一场机器人军备竞赛正在展开。英国菲尔德大学科学家诺埃尔·夏基说,他对美国、俄罗斯等国提出的军用机器人计划进行研究后感到“很害怕”。他最担心的是,机器人今后将自己决定何时“扣动扳机”,而“机器人对于为什么要这样做没有判断能力”。夏基建议,各国政府和军用机器人研究者应重新考虑目前的研发计划。

虽然教机器人在战场上如何行动,看起来可能很简单,因为各国会遵循国际商定的法律制定的交战规则。但科技人员并不能预见战场上可能会出现的每种情形,正如十诫不能涵盖每种道德模糊的情况一样。因此许多科学家认为,必须对战斗机器人提前设定严格的“密码”,包括伦理道德、法律、社会以及政治等因素,否则整个世界都有可能毁于它们的钢铁之手。

此外,国际知名学者艾萨克·阿西莫夫的“机器人学三大法则”也可能成为未来战斗机器人的伦理及安全准则。随着机器人的用途日益广泛以及人工智能的不断进步阿西莫夫的机器人三大法则发挥着越来越重要的作用,以至有人称之为机器人学的金科玉律随着战争中致命自主武器的大量投入使用,一些公认的战争伦理将受到前所未有的挑战和冲击。

开发致命自主武器的技术正面临越来越大的公众强烈反对,国际社会也要求有关机构尽快制定一个战斗机器人伦理准则。几乎所有的科技人员都认为,制定战斗机器人的伦理准则是很有必要的,以免以后引起不必要的战争纠纷。美国麻省理工学院法律与伦理专家凯特·达尔林最近指出,要尽快制定战斗机器人的伦理准则,并做好这方面的风险分析及应对策略研究

目前,一些国家已经提出,给战斗机器人制定国际法和伦理准则,以约束其战场行为。2013年5月27日,联合国人权理事会例行会议也指出,将战斗机器人从远程遥控发展至自动判断敌情、杀死敌人,可能误伤准备投降的士兵。

即使研发自主性武器系统或组建战斗机器人部队,也要把握住以人类生命观和价值观为导向的方法论,充分考虑人的良知和情感,警惕技术被滥用的潜在风险避免出现伦理失常、安全失控、法律失准等问题。对战争进行伦理和法律的约束及制衡,是人类社会长期努力的结果,也是人类文明进步的重要表现。