手机钝角网

首页 外交 大国 周边 新兴国家 安全 经济 七洲志 读书 国际周评


致命性自主武器系统及其军控选择

关键词:

来源:现代国际关系 2018-07-28 11:47:55

致命性自主武器系统及其军控选择

作者:徐能武 葛鸿昌

人工智能在军事领域的应用日益广泛并催生一系列致命性自主武器,因而对国际人道主义和人权、国际法以及国际军控机制日益构成威胁与挑战。

  智能化无人作战系统使海军装备的自主性大幅提升。美国在2016年5月测试的“海上猎手”号无人反潜战舰长约132英尺,最高航速可达27节,可在无人操作的情况下在海上连续航行数月。美国媒体称其因猎潜能力可成为“敌军潜艇的噩梦”。凭借雄厚的军工科研能力和丰富的实战经验,俄罗斯在无人战车领域占据领先优势。由俄罗斯国防出口公司自行研发的“天王星-9”无人战车在2016年9月首次被披露。其配备多种传感器,激光告警系统及热敏和光学相机,能够自行探测和获取4英里外的目标。操作员在1.8英里内的移动载具中既可对其进行人工操作,也可设置预定程序。这些无人战车成为俄罗斯参与叙利亚地缘博弈的抓手之一。

  由此可见,人工智能革命引发的技术浪潮推动武器装备朝着拟人化、自主化方向发展,实现检测、识别、跟踪、交会等一系列行为的自我处理。这样的致命性自主武器系统入境遍布海、陆、空、太空等各个领域,赋予武器装备解决简单问题的权限,进一步减少对操作人员数量和技能水平的依赖,极大地提高了作战效能。

  第三,大国战略诱导致命性自主武器系统的研发。人工智能革命正在改变战争的基本态势。为追逐在新一轮军事竞争中的领先位置,各大国争相制定相关战略和政策,鼓励本国致命性自主武器系统的研发,提升人工智能的军事化应用程度,以图占据世界新军事革命的制高点。美国、俄、英、以色列、韩国等拥有高科技军事力量的国家正在研发减少人类参与的致命性自主武器系统。其将研发出的新技术很可能使完全自主机器人变为现实。早在2007年,美国国防部就在其无人系统路线图中写道,对于处理器技术来说,最终目标是用同等或优越的思维速度、记忆能力以及训练和经验所获得的反应等机械传真取代操作员。2009年5月18日,美国空军发布了《无人机系统飞行计划2009-2047》,为未来40年的无人机发展谋篇布局,其中强调“完全自主”是未来无人机系统所需的综合能力之一。2018年3月,美国在提交给联合国“致命性自主武器系统问题政府专家组”会议的立场文件中称,“致命性自主武器系统领域的新兴技术可以提高国家在运用武力时降低平民伤亡风险的能力……相比于贬低或禁止致命性自主武器系统领域的新兴技术,美国应鼓励相关创新。”俄罗斯在人工智能领域同样不甘示弱。俄军在2015年制定了一项雄心勃勃的研发计划并获得军事工业委员会的支持,它预定在未来十年30%的战斗力将由远程遥控自主机器人平台组成。有专家称,“俄罗斯近几年正试图追赶美国和中国在机器人、无人机及其他潜在的自主武器的发展进度”。这种大国间在自主武器领域的军备竞赛极易打开致命性自主武器系统的魔盒,将世界拖入“终结时代”。

  同时,致命性自主武器系统可为国家削减战斗人员,降低战争消耗,实现武器装备的代际超越。这为对内负担资源人口压力,对外面临和平安全威胁的国家提供了新的战略思路。例如,日本和以色列拥有高度先进的技术部门和独特的人口挑战,对致命性自主武器系统的研发可能有更大兴趣。大国在战略上的隐蔽性和技术上的先进性很可能让致命性自主武器系统越来越多地悄然生发。

  二、致命性自主武器系统发展的威胁与挑战

  人工智能军事化蕴藏的风险也开始引发广泛关注。如霍金所言,人工智能的发展“要么是人类历史上最好的事,要么是最糟的”。一批知名科学家和技术专家多次发出呼吁,要求国际社会采取实质性举措限制这一危险进程,特别是限制那些致命性自主武器系统的发展和应用。特斯拉(Tesla)创始埃隆·马斯克(ElonMusk)甚至警告,国家间人工智能的军备竞赛,有可能成为第三次世界大战的起因。

  (一)对国际人道主义和人权的威胁和挑战。

  首先,致命性自主武器系统无需人类干预自行决策的特点,割断了战场上人与人的情感关联,使得国际人道主义在战争中难以落实。根据人道主义的相关原则,人类在发动攻击时会对目标人群产生一定同情心理,并在综合考虑可能面临的法律、情感和道德后果后作出决定。对战争态势的判定和战场惨烈程度的认知必然导致战斗人员决策行为的即时改变。而致命性自主武器系统“决策的去人类化”特征可能带来与实际使用武力的物理和心理上的距离,会减轻人的关切,甚至使部署致命性自主武器系统的人员察觉不到这种关切。这会造成致命性自主武器因缺少情感和道德考量而无法节制非人道行为,同时有关决策层因无需考虑自身人员伤亡情况而极有可能加大战争的搏杀力度,引发乱杀滥杀等人道主义灾难。

责任编辑:

致命性自主武器系统及其军控选择

关键词:

来源:现代国际关系 2018-07-28 11:47:55

致命性自主武器系统及其军控选择

作者:徐能武 葛鸿昌

人工智能在军事领域的应用日益广泛并催生一系列致命性自主武器,因而对国际人道主义和人权、国际法以及国际军控机制日益构成威胁与挑战。

  中国领导人在十九大报告中号召“加快建设制造强国,加快发展先进制造业,推动互联网、大数据、人工智能和实体经济深度融合”,强调把握好人工智能革命这一重大历史机遇。人工智能在军事领域的应用直接催生了致命性自主武器系统(LAWS,LethalAutonomousWeaponsSystems),引起国际安全形势的巨大变化。致命性自主武器系统正在成为一些国家追求利益的一种战略手段,它所造成的严重威胁和挑战也引起越来越广泛的关注,因此,国际社会推动致命性自主武器系统军控谈判既艰难又紧迫。致命性自主武器系统军控都包含一定的权利和义务,因此,相关国家的参与就意味着接受这种形式的收益与成本。联合国作为全球性安全机制对于推进致命性自主武器系统军控谈判具有不可或缺的权威建构作用,中国应会同各有关国家一道大力推动联合国等多种机构多层次、主导性地介入谈判过程,主张和坚持通过友好协商寻求各方都能接受的方案,积极支持成立确保透明、问责和法治原则的多边协调机构,稳步推进致命性自主武器系统军控的谈判,在捍卫中国权益的同时,为维护国际安全稳定贡献智慧和力量。本文拟分析致命性自主武器系统的缘起及其威胁与挑战,重点论述中国应该如何与联合国等机构一起推进相关军控谈判。

  一、致命性自主武器系统的缘起与发展

  致命性自主武器系统是指这样的武器系统,它们具有最先进的人工智能、机器人和自动控制能力,不需人类干预,就能选择目标、决定是否进行打击,并能致人丧失生命。关于致命性自主武器系统是否已能用于实战,尚存在争议,但某些国家的特定实验室正在进行有关的开发研究,则是不争的事实。2017年,在联合国“致命性自主武器系统问题政府专家组”会议上,有些代表团认为,完全自主武器系统尚不存在,但另一些代表团则指出,存在一些前体技术,还有一些国家部署了自主性程度越来越高的技术。2015年7月召开的国际人工智能联合会议曾在开幕式上宣读了一封公开信,信中称人工智能技术可使完全自主武器“无需几十年,几年内就可以被开发应用”。总体上可以确定的是,致命性自主武器系统正在加速走向人类,在世界上引起广泛忧虑。

  第一,科技革命推动致命性自主武器系统的兴起。第三次科技革命带来的电子计算机技术、激光技术等新兴科技为武器装备自动化程度的大幅提高提供了可能,这是致命性自主武器系统发展的必要基础。高度自动化的武器可在无人协助的情况下自我完成攻击或防御动作,但必须由人类提前预设程序,并由人对其攻击目标的识别、决策及其方式选择做出特定限制和要求,这种武器无法做出自我判断和抉择。二战时期德国研制的FritzX导弹作为世界上第一代精确制导武器,已具有对目标进行一定程度的自动搜索及打击的能力。有学者认为FritzX甚至“可以称作第一个无线电控制的无人机”。二战后,美国大力支持自主武器系统的研发并居于领先位置。在20世纪70年代的越南战场,美国首次在战争中成功使用激光制导的“智能炸弹”完成对敌军目标的打击,同时部署了无人侦察机通过远程遥控在一定范围内进行情报的拍摄、搜集,发挥了自主武器的独特优势。1980年,美国开始投入使用“密集阵”近防系统。该系统运用高性能的计算机进行一系列程序设定,具有快速开火、电脑控制、雷达引导等特征,但被预设为“只参与瞄准防御点内及预定速度范围之间行进的目标”,不具备差别对待目标的能力。可以说,这些早期致命性自主武器系统主要用于根据预先设定的程序对目标进行识别和打击,自动化、无人化的优势减少了人员的直接参与,但在选择和决策过程仍完全依靠人类,自主化程度和处理问题的能力处于较低水平。

  第二,人工智能加速致命性自主武器系统的发展。进入21世纪以来,随着人工智能的飞速发展和国际安全形势的日益严峻,智能化的无人作战系统作为维护国家安全的“护身符”、“杀手锏”逐步走向更广阔的现实战场。智能模拟、精确识别、深度学习及大数据处理等关键技术的突破,帮助致命性自主武器系统实现了飞跃式发展。从2002年起,美国开始综合采用无人机和传统空袭的方式在也门战场进行秘密定点清除行动。2002年11月,美国“捕食者”无人机在萨那东部精准猎杀基地组织头目阿布·阿里(AbuAli)及其他五名武装分子,无人机从此成为美国反恐战场上的常备武器。2006年,韩国在武装智能机器人领域取得进展,并将其部署在朝韩边境的非军事区。它是一款由三星设计的SGR-1机枪机器人,装有热量和运动探测器,可识别2英里以外的潜在目标并对目标进行全自动跟踪和定位。其配备的5.5毫米机枪和40毫米榴弹发射器可经人授权后进行射击。2013年7月,美国诺思罗普·格鲁曼公司研制的X-47B无人机创造了“第一次实现自主战机从航母甲板弹射起飞”的历史,为美军随后的“舰载无人空中加油系统”项目奠定了技术基础。

  智能化无人作战系统使海军装备的自主性大幅提升。美国在2016年5月测试的“海上猎手”号无人反潜战舰长约132英尺,最高航速可达27节,可在无人操作的情况下在海上连续航行数月。美国媒体称其因猎潜能力可成为“敌军潜艇的噩梦”。凭借雄厚的军工科研能力和丰富的实战经验,俄罗斯在无人战车领域占据领先优势。由俄罗斯国防出口公司自行研发的“天王星-9”无人战车在2016年9月首次被披露。其配备多种传感器,激光告警系统及热敏和光学相机,能够自行探测和获取4英里外的目标。操作员在1.8英里内的移动载具中既可对其进行人工操作,也可设置预定程序。这些无人战车成为俄罗斯参与叙利亚地缘博弈的抓手之一。

  由此可见,人工智能革命引发的技术浪潮推动武器装备朝着拟人化、自主化方向发展,实现检测、识别、跟踪、交会等一系列行为的自我处理。这样的致命性自主武器系统入境遍布海、陆、空、太空等各个领域,赋予武器装备解决简单问题的权限,进一步减少对操作人员数量和技能水平的依赖,极大地提高了作战效能。

  第三,大国战略诱导致命性自主武器系统的研发。人工智能革命正在改变战争的基本态势。为追逐在新一轮军事竞争中的领先位置,各大国争相制定相关战略和政策,鼓励本国致命性自主武器系统的研发,提升人工智能的军事化应用程度,以图占据世界新军事革命的制高点。美国、俄、英、以色列、韩国等拥有高科技军事力量的国家正在研发减少人类参与的致命性自主武器系统。其将研发出的新技术很可能使完全自主机器人变为现实。早在2007年,美国国防部就在其无人系统路线图中写道,对于处理器技术来说,最终目标是用同等或优越的思维速度、记忆能力以及训练和经验所获得的反应等机械传真取代操作员。2009年5月18日,美国空军发布了《无人机系统飞行计划2009-2047》,为未来40年的无人机发展谋篇布局,其中强调“完全自主”是未来无人机系统所需的综合能力之一。2018年3月,美国在提交给联合国“致命性自主武器系统问题政府专家组”会议的立场文件中称,“致命性自主武器系统领域的新兴技术可以提高国家在运用武力时降低平民伤亡风险的能力……相比于贬低或禁止致命性自主武器系统领域的新兴技术,美国应鼓励相关创新。”俄罗斯在人工智能领域同样不甘示弱。俄军在2015年制定了一项雄心勃勃的研发计划并获得军事工业委员会的支持,它预定在未来十年30%的战斗力将由远程遥控自主机器人平台组成。有专家称,“俄罗斯近几年正试图追赶美国和中国在机器人、无人机及其他潜在的自主武器的发展进度”。这种大国间在自主武器领域的军备竞赛极易打开致命性自主武器系统的魔盒,将世界拖入“终结时代”。

  同时,致命性自主武器系统可为国家削减战斗人员,降低战争消耗,实现武器装备的代际超越。这为对内负担资源人口压力,对外面临和平安全威胁的国家提供了新的战略思路。例如,日本和以色列拥有高度先进的技术部门和独特的人口挑战,对致命性自主武器系统的研发可能有更大兴趣。大国在战略上的隐蔽性和技术上的先进性很可能让致命性自主武器系统越来越多地悄然生发。

  二、致命性自主武器系统发展的威胁与挑战

  人工智能军事化蕴藏的风险也开始引发广泛关注。如霍金所言,人工智能的发展“要么是人类历史上最好的事,要么是最糟的”。一批知名科学家和技术专家多次发出呼吁,要求国际社会采取实质性举措限制这一危险进程,特别是限制那些致命性自主武器系统的发展和应用。特斯拉(Tesla)创始埃隆·马斯克(ElonMusk)甚至警告,国家间人工智能的军备竞赛,有可能成为第三次世界大战的起因。

  (一)对国际人道主义和人权的威胁和挑战。

  首先,致命性自主武器系统无需人类干预自行决策的特点,割断了战场上人与人的情感关联,使得国际人道主义在战争中难以落实。根据人道主义的相关原则,人类在发动攻击时会对目标人群产生一定同情心理,并在综合考虑可能面临的法律、情感和道德后果后作出决定。对战争态势的判定和战场惨烈程度的认知必然导致战斗人员决策行为的即时改变。而致命性自主武器系统“决策的去人类化”特征可能带来与实际使用武力的物理和心理上的距离,会减轻人的关切,甚至使部署致命性自主武器系统的人员察觉不到这种关切。这会造成致命性自主武器因缺少情感和道德考量而无法节制非人道行为,同时有关决策层因无需考虑自身人员伤亡情况而极有可能加大战争的搏杀力度,引发乱杀滥杀等人道主义灾难。

  其次,作为非生命体的致命性自主武器系统自我决定剥夺个体的生命这一举动就是对人权的践踏。“在战斗中部署致命性自主武器系统透露出一种观念:即被其瞄准的任何人都不值得具有生命状态的操作员去考虑,该人的生命尊严权因此遭受到剥夺。”人类在战争中也会存在肆意侵犯生命权的行为,但这仍然被视为是人类思维和价值非常化的体现。现有社会中的人权法和道德都可对人类的相关行为产生约束效果。现有的科技水平仍无法为致命性自主武器系统提供与人类相似的认知水平,帮助其准确感知平民与非战斗状态下之战斗人员的区别。放宽自主决策的权限可能是充分利用致命性自主武器系统的唯一途径,但这很可能造成系统失控的状态,增加平民成为击杀目标的可能性。致命性自主武器系统在缺少价值观判断的情况下蓄意击杀个人无疑是对人类与生俱来之生命权的亵渎。

  最后,致命性自主武器系统也可能对其他人权带来负面影响。彼得·阿萨罗(PeterAsaro)就表达了对生命权之外的践踏其他人权的关注,“譬如逮捕、拘留及行动限制;搜查、监视及跟踪;驱逐出境;驱逐和丧失抵押品赎回权;拒绝给予医疗保险、公众集会、出版和言论自由及选举的权利”。致命性自主武器系统在做出是否击杀目标的决定之前,首先要完成搜索、检测、识别、跟踪、瞄准等一系列确认动作。这在当前战争尤其是反恐战争中战场界限模糊不清的情况下很可能持续相当的时间,对公民的私人生活造成影响。它在一定程度上是侵犯隐私权的表现。希瑟·罗夫(HeatherRoff)还曾认为,空中致命性自主武器系统在发现目标时只能够在是否击杀中进行选择,如果选择击杀,则既剥夺了生命权同时也侵犯了该人员的公平审判权。

  (二)对战争法的威胁和挑战。

  由于与人类存在本质性的差异,致命性自主武器系统虽然在战场上发挥战斗人员的实际作用,却无法受到战争法的相关约束和影响。如果其违反了法律,做出部署人员无意实施的违法行为,谁应负法律责任则是不明确的,由此造成“追责缺口”。有学者认为,在系统部署过程中,“有可能负有法律责任者包括软件程序员、制作或出售硬件人员、军事指挥官、部署武器系统的下级人员和政治领导人。”但是,详细的名单无法为明确的责任划分提供建议,反会因责任人众多而削弱法律原有的惩罚与劝诫效果,使受害者的权益得不到应有的保障,有损司法问责制度的权威,进而无法对战争中的平民和潜在受害者继续提供有效保护。

  致命性自主武器系统是否符合战争法的要求也是人们关心的议题。《日内瓦四公约第一附加议定书》第36条为新武器的法律审查提供了指导方针,即“研究、开发、获取或采用一种新的武器、作战手段或方法时,缔约国一方有义务断定在某些或所有情况下,该新的武器、作战手段或方法是否为本议定书或适用于该缔约一方的任何其他国际法规则所禁止。”这项规定的目的是防止在任何情况下使用违反国际法的武器,并对在某些情况下违反国际法的武器的使用施加限制,在研发、获得及放入国家“武器库”之前确定其合法性。当前学界对于致命性自主武器系统是否符合战争法的争论点在于其是否符合马顿斯条款——即“受到来源于既定习惯、人道原则和公众良心要求的国际法原则的保护和支配。”只是在致命性自主武器系统出现前,谁也无法确切回答其是否服从人道主义规范。

  区分原则和相称性规则是在战争中必须遵守的两项基本原则。区分原则要求无论何时均应该在平民与战斗员、民用物体与军事目标之间做出区分。相比之下,在评估武器系统本质上是不分皂白时,检查其目标识别性能显得尤为重要。人类需要时刻把握战场态势和环境态势以作出相对准确的判断。惯于以计算机处理定量数据的致命性自主武器系统很难理解相关的标准,极有可能违反战争法规定。相对称性规则评判要求,即使某一武器符合区分标准,它的使用也必须涉及对预期平民伤害(对平民或民用物体)的评估,以确定预期的军事优势,对平民的伤害不能大于预期的军事利益。这同样考验致命性自主武器系统对具体情境下价值的判断和主观考量,给人类社会带来巨大的风险和挑战。致命性自主武器系统迫使人类重新思考战争法的主体界定、适用范围和基本原则等多内容,使原本趋于完备的战争法面临深刻的考验。

  (三)对国际军控机制的威胁与挑战。

  当前,自主武器朝着多样化、智能化方向加速发展,致命性自主武器系统呼之欲出。毫无疑问,哪个国家率先研发出在掌控范围内的致命性自主武器系统,哪个国家将在世界新军事革命中占据优势地位。虽然各国都存怀有对致命性自主武器系统失控泛滥的隐忧,但仍在暗自角力,力争取得领先性优势。美国国防部副部长沃克曾在接受采访时说:“我们可能会遇到一个比我们更愿意把权力下放给机器的竞争对手,随着竞争的展开,我们将不得不就如何才能赢得竞争做出决定。”俄罗斯总统普京也曾说,谁主导人工智能这一领域,谁就可以成为世界的霸主。作为新一轮军备竞赛的焦点对象,致命性自主武器系统相关的军控谈判同样会逐渐增多。联合国《特定常规武器公约》会议建立的“致命自动武器系统监管专家组”(GGE)主要负责此类谈判,各大国借此展开的博弈必将挑战原有军控机制确立的部分原则。

  致命性自主武器系统可以帮助国家“在没有军事伤亡的情况下进行战争,这将消除对作战产生威慑的最大影响之一”。相关国家的领导人将较少地顾忌发动战争导致本国军事人员伤亡带来的国内负面社会效应,这极大降低了战争的门槛。在战争中先发制人的国家还可以将战场推进到对手的领地,最大程度减缓本国因冲突造成的损失。这无疑会增强国家对外扩张的野心,降低国际间的危机稳定性,削弱军控机制的协调能力。

  同时,致命性自主武器系统的研发具有相对隐秘性。任何掌握人工智能及大数据处理等技术的实验室都可以在一定时间内制造相当自主程度的武器。商业公司利用规模经济和自由市场帮助自主系统和机器人技术向民用领域渗透,增加了这种武器系统军控性质的监管和核查难度。韩国科学技术院2018年2月与韩国十大财团之一的韩华集团旗下韩华系统公司合作,设立人工智能研发中心目的是研发适用于作战指挥、目标追踪和无人水下交通等领域的人工智能技术。全球30多个国家和地区的研究人员对此一致予以反对,认为韩国科技院的举措将加剧军备竞赛、令人遗憾。此外,由于不扩散政策可能针对的瓶颈点相对较少,致命性自主武器系统有可能被更多的国家和非国家行为体所利用,这对军备控制会产生巨大副作用。一旦恐怖分子获取或自行研制致命性自主武器系统,现行的国际秩序和人类命运将遭到灾难性的破坏。

  三、中国在相关军控事务中可以有所作为

  致命性自主武器系统的军控现状表明,国际社会加强了致命性自主武器系统的监管,并就防止由其应用可能导致的人道主义灾难或对人类尊严的损害形成一定共识,但对于如何推动相关军控谈判以及法律制度建构则没有任何进展,个别国家甚至不顾国际社会的反对而乘隙加大力度研发各种形式的致命性自主武器系统,加剧了不安全感。中国作为联合国安理会常任理事国的一员和新兴大国,理应在相关军控事务中发挥积作用,树立中国作为负责任大国的良好形象,以维护中国和平发展的外部环境和世界秩序的安全、稳定。

  (一)推动联合国多重机构提前多层次主导性介入。

  致命性自主武器系统的研发及应用不仅影响着未来战争形态和平民安全等,而且涉及可能侵犯人的尊严,不同社会主体对其正负功能争议较大,加之,其包含的许多无法预测的后果,使得联合国作为一个旨在维护和平与安全的全球性国际安全机制,主导致命性自主武器系统军控有着其他国际行为主体不具备的优势,也为世界各国捍卫主权和国际法提供了一个不可替代的平台。

  1.明确主张由联合国主导军控谈判。对于致命性自主武器系统军控存在的广泛复杂争议表明,其现实推进需要联合国所具有的整体性视野。反对军控者认为,如果致命性自主武器系统能方便地被用于反恐行动,或许将减少由此类恐怖活动造成的平民伤亡。致命性自主武器系统驻防时间比人长得多,并可承受加速力等其它障碍,减少无必要的伤亡。致命性自主武器系统不受某些可能破坏保护生命的人类弱点的制约,不会出于报复、恐慌、愤怒、鄙视、偏见或害怕而行动,也不会故意对平民人口进行伤害。同时,自由追求科学研究的重要性也是人们不愿意规范人工智能在军事领域研发及应用的一个重要原因。

  但是,赞成军控者则认为,这一领域的“技术攀行”(TechnologyClimbing)几乎可以在让人毫无察觉的情况下发展到对人类核心价值观和国际安全体系带来严重危险的局面。致命性自主武器系统在战场上选择的背后有种种相互矛盾的因素,这就使得机器人很难计算,也难以真正具备区分合法与非法命令的能力。致命性自主武器系统及其应用所引发的复杂社会影响和热烈争议必然要求相关国家、国际组织以及民间社会等充分利用联合国这一全球性国际安全机制来全方位考虑对其进行有效军控的问题。这就必然要求,任何国家的国内单边立法应符合联合国框架下建立的致命性自主武器系统军控机制原则精神的要求。

  2.支持联合国多重机构介入军控谈判。中国应继续支持联合国作为全球性国际安全机制,由其多重机构和部门按照职责分工,恰当、适时地推进致命性自主武器系统军控。从致命性自主武器系统带来的安全挑战和社会影响,以及相关军控努力现有实践来看,联合国人权理事会(UNHRC,UnitedNationsHumanRightsCouncil)作为联合国大会下属的政府间机构,主要负责在全球范围内加强促进和保护人权的工作,解决侵犯人权的状况以及对此提出建议。因此,各国可充分利用联合国人权理事会这一平台对致命性自主武器系统对国际人权法和人道主义法的严峻挑战,展开详尽的探讨,达成更广泛的共识,并磋商军控建议。与此同时,中国应积极参加联合国裁军研究所有关致命性自主武器系统军控的研究和探讨。中国应同其他各国一道尽快推动设立在日内瓦的裁军谈判会议(裁谈会)(UNDC,U.N.ConferenceonDisarmament)作为唯一的多边裁军谈判机构,尽快启动致命性自主武器系统军控谈判,将有关谈判要点和进展情况纳入年度工作计划和工作报告,按时向联合国大会提供相关建议,并适时提交致命性自主武器系统军控专题工作报告。

  与此同时,中国应积极推动由国际知名专家组成的联合国裁军事务咨询委员会(裁咨委)(UnitedNationsAdvisoryCommitteeonDisarmament)将致命性自主武器系统军控纳入定期召开会议,并尽快向联合国秘书长提供咨询意见;推动负责处理裁军与国际安全问题的联合国大会裁军和国际安全委员会(联大一委)(U.N.FirstCommittee,DisarmamentandInternationalSecurityofGeneralAssemblyoftheUnitedNations),适时为致命性自主武器系统军控问题制定议程、做出决策,审议并通过有关裁军与军控决议;由附属于联大的审议机构——裁军审议委员会(裁审会)(U.N.DisarmamentCommission)审议致命性自主武器系统军控问题并向联合国大会提出建议。应积极推动联合国秘书处设有裁军事务厅(UNODA,UnitedNationsOfficeforDisarmamentAffairs),搜集致命性自主武器系统军控方面的信息,加大调查研究,提出军控咨询,协调各国立场,为有关致命性自主武器系统军控会议提供技术支持等。

  3.参与联合国提前多层次介入军控谈判。中国作为联合国安理会常任理事国,应积极参与联合国有关机构和部门组织开展的推进致命性自主武器系统军控相关活动.中国应主动派出相关专家参与联合国人权理事会召集的讨论致命性自主武器系统问题专家组活动,探讨审查机器人技术及其与国际人权和人道主义法律相符的问题,以及暂时中止有关致命性自主武器系统若干活动的方式途径等。中国应积极参与日内瓦联合国办事处举行的有关“致命自主武器系统”的会议,和有关专家和领导人共同讨论关于未来武器潜在的管制办法,并表明中国支持致命性自主武器系统军控的基本态度和关切要点。中国应积极参与联合国在日内瓦举行的《特定常规武器公约》缔约国专家会议,探讨致命性自主武器系统所引发的法律、道德与社会问题。

  同时,中国裁军大使可依据情势和军控实际进程,在《特定常规武器公约》缔约国大会阐明中国基本立场和观点。中国有关代表可充分利用《特定常规武器公约》的国际会议、公约审议大会、缔约国会议以及各次专家组会议和联合国裁军研究所、国际红十字委员会、非政府组织,以及相关领域的专家和学者围绕致命性自主武器系统引发的技术与应用关切,伦理与道德关切以及未来的发展之路进行探讨。中国公开支持联合国《特定常规武器公约》(CCW)会议关于建立“致命自动武器系统监管专家组”(GGE)的决定,并派出相应专家积极参加2017年11月召开的GGE第一次会议和2018年4月GGE第二次会议。今后,中国应继续就致命性自主武器系统军控问题充分交流探讨,了解前沿动态,把握各国关切和分歧要点。中国应充分利用联合国系统内就禁止致命性自主武器系统展开讨论的机会,参与交流,提出关切要点,表明原则立场,呼吁国际社会加强在这一问题领域的国际安全合作,努力推进对致命性自主武器系统的国际监管,尽快就此形成法律文书。

  (二)主张寻求友好协商基础上各方都能接受的方案。

  致命性自主武器系统作为现代科技前沿技术——人工智能军事应用的典型代表,围绕其功能作用的争议分歧较大,不同国际行为主体由于自身权益追求、权力地位和认知观念等的不同,对于推进致命性自主武器系统军控谈判有着不同立场、观点和看法,因此,通过友好协商找到一个各方都能接受的方案,以协调各国行动,反对霸权国家单方面主导规则的制订,切实加强国际合作显得尤为关键。

  1.在充分讨论交流中兼顾、权衡各类意见、观点。事实上,中国也在相关场合反复表明这一立场,“中国高度重视并积极参与国际社会有关‘致命性自主武器系统’讨论,主张各国应对此进行深入研究,在全面、充分讨论基础上,寻求妥善解决办法。”对致命性自主武器系统军控,有些人认为这一武器系统不可能在战场决策方面超越人类,永远不能达到国际人道主义法律或国际人权法的要求,即使能够达到,作为一个原则问题,也不能给予致命性自主武器系统以生杀予夺的权力。因此,他们大声疾呼应一概禁止这一武器系统的开发、生产和使用。

  但另外一些人则认为,这类技术进步,只要控制在适当的界限内,是合法的军事进步,在有些情况下甚至能够有助于让武装冲突更加人性,挽救当事各方的生命。按照这种论点,完全摈弃这种技术就等于没有适当地保护生命。第三种论点则认为,正是因为致命性自主武器系统不是人类,它们在某些危险情况中的表现可能会超越人类,人类作战者的行动可能会受恐惧或愤怒影响。同时,通过编制程序,可使致命性自主武器系统借由外形、热信号、空速阈值等特征识别敌对目标,从而可以做到遵守国际人道主义法中的攻击相称原则。因此,这些人强调,致命性自主武器系统军控并不是全面禁止,而是加强国际有效监管。

  2.在渐次达成共识中比较、考量各种方式、措施。目前,对于致命性自主武器系统及其应用还存在诸多不确定性,因此,在渐次达成共识的基础上规范、控制这类开发中的武器系统须要依据实际情况比较、考量各种不同的方式、措施。一方面,根据现有相关国际军控体系,对于新武器系统开发应援引《日内瓦四公约第一附加议定书》第36条规定,虽然不能要求各国披露其审查的结果,但确保对诸如致命性自主武器系统等新武器出现加强管控的一个办法是鼓励各国更加对外开放本国遵循第36条审查的程序。

  另一方面,中国应同国际社会一道推动各种非政府组织和公众展开致命性自主武器系统要不要军控以及如何军控的各种形式探讨。在具有拘束力的法律文书一时难以达成的情况下,中国应积极参与推动有关国际组织制订、出台一些有意义的软法律文书,包括相关宣言、行为准则、政府间对话、情报共享和建立信任措施及框架公约等,尽可能规范、控制致命性自主武器系统的出现和部署。对致命性自主武器系统进行积极军控的措施还包括预先研讨、规范对可能出现的此类武器的受害者进行援助的规定。

  3.在多方协调行动中对比、明确各方权利、义务。致命性自主武器系统军控涉及到相关科学家和技术专家、制造厂商、政府决策者、部队指挥官、战士,以及普通民众等,因此,此类武器系统军控谈判应在多方协调行动的基础上,设定明确各方不同的权利、义务的议题,展开具有实质意义的探讨和规范制定。对于相关对于致命性自主武器系统程序员和制造商而言,寻求让开发程序员和制造商承担责任存在现行法律障碍,比如美国大多数武器制造商拥有豁免权。军控条约应明确人工智能和机器人专家合法地研发、制造机器人的权利和义务,明确规范政府决策者对于急速发展的人工智能的军事应用,必须承担起内审义务。如果不能确定是否一旦被开发出来则难以限制,就应该要求“先行禁止”。

  部队指挥官、战士等作为此类武器的可能主要使用者,按照国际刑法规定,人类操作者大多数情况下不必承担武器伤害引发的责任。如果人类操作者事先应该知道致命性自主武器系统使用的危害和风险,那么他们必须对机器人自主行动造成的负面结果负责。对于广大民众而言,因这种不受人类控制的武器系统发展不仅会引发“全球性人工智能军备竞赛”,而且会在任何难以想象的情况下危及自身和亲人的生命,因此,呼吁规范、限制致命性自主武器系统的开发和使用是各国人民不可忽视的权利和义不容辞的责任。

  (三)支持成立确保透明、问责和法治原则的多边国际监管体系。

  现阶段致命性自主武器系统军控最紧迫的任务是对其实现有效的国际监管,为此,中国应大力支持联合国和国际社会在推进军控的过程中,适时地成立确保透明、问责和法治原则的多边国际监管体系。致命性自主武器系统军控现实目标应定位为国际监管体系既能对因使用致命性自主武器系统而可能造成的附带损害加以限制,又能对此类武器的开发和扩散加以监管。

  1.支持联合国人权理事会呼吁建立军控国际商定框架。从致命性自主武器系统军控的实践历程来看,联合国人权理事会既是较早讨论这一军控问题的联合国机构,也是相对适宜组织有关探讨的机构。为此,中国应积极支持联合国人权理事会呼吁全体国家宣布并在国内至少暂停测试、生产、组装、转让、采购、部署和使用致命性自主武器系统,直到建立一个关于致命性自主武器系统军控的国际商定的框架。

  中国应和国际社会一道,吁请人权理事会作为优先事项,组建一个致命性自主武器系统高级别专家小组,由来自法律、机器人、计算机科学、军事行动、外交、冲突管理、道德和哲学等不同领域的专家组成。专家小组应总结有关致命性自主武器系统方面的技术推进情况;评估与致命性自主武器系统有关的法律、道德和政策问题;提出一个框架建议,使国际社会能够有效地处理有关致命性自主武器系统的法律和政策问题,并就此提出具体的实质性和程序性建议;工作中应努力推进具有广泛基础的国际对话;评估现有规范致命性自主武器系统的国际和国内法律框架的有效性和不足之处;就如何适当推进军控工作提出建议。

  2.支持联合国促进建立各国武器审查的国际透明机制。根据1949年《日内瓦(四)公约》的《第一附加议定书》第36条要求每一缔约国判定,使用其研究、发展、取得或采用的任何新武器、作战手段和方法,是否在某些或所有情况下,为国际法所禁止。评估新武器的合法性有助于确保各国武装部队能够根据该国承担的国际义务从事敌对行动。为此,2001年第28届红十字与红新月国际大会上为1949年《日内瓦(四)公约》缔约国所通过的《人道行动日程》(HumanitarianAgenda)所准备的文件《新武器、作战手段和方法法律审查指南:1977年<第一附加议定书>第36条实施措施》,要求各国对所有新武器、作战手段和方法进行严格与全面的审查,从而确保其合法性。

  因此,在致命性自主武器系统军控尚未达成国际法律文书前,中国应和其他各国一道积极支持联合国裁军和军控机构推进各国形成致命性自主武器系统审查的国际透明机制。所有相关联合国机构和组织在与活跃在致命性自主武器系统领域的各方互动时,应视情强调有必要在开发致命性自主武器系统的各个方面充分透明;争取各国内部武器审查程序进一步对国际透明。各国至少应在所遵循的程序(如果不是实质性结果)上对国际社会透明,承诺尽可能严格地进行审查;加大有关国际讨论和政府间对话,交流各自最佳做法。

  3.支持国际社会各群体组织成立多样化军控协调机制。人工智能领域的科学家和技术专家因对全自主技术发展前沿及其功能影响相对熟悉,是较早提出应关注致命性自主武器系统军控这一问题的国际社会群体之一。2009年9月,英国谢菲尔德大学机器人、人工智能专家诺尔·夏基(NoelSharkey)领导建立了非政府间团体“国际机器人武器控制委员会”(ICRAC,TheInternationalCommitteeforRobotArmsControl),多次与人权观察组织和其他组织(目前包括来自22个国家的47个组织)联合进行“停止杀手机器人活动”,并努力说服《特定常规武器公约》缔约国采取相关行动。

  2013年11月,国际裁军联盟和人权组织呼吁,联合国《特定常规武器公约》日内瓦会谈必须抓住机遇,禁止研发名为“杀手机器人”的完全自主武器。2016年9月,全球最大的5大科技巨头谷歌、亚马逊、Facebook、IBM和微软联合制定首个成熟的AI道德标准,并打算成立一个人工智能行业组织,目的是确保人工智能有利于人类而不伤害人类。中国应继续支持相关专家积极参与国际社会成立的各群体组织,并一起推动有关致命性自主武器系统军控多样化协调机制的完善,以及其与联合国相关国际机制的对接,从而做到既汇聚各方智慧,形成军控共识,又促进有效国际法律文书的早日达成。

  结语

  基于致命性自主武器系统及其应用所带来影响的复杂性和深刻性,以及其事关各国国家安全利益,中国应旗帜鲜明地倡导由联合国主导致命性自主武器系统的军控进程。目前,由于对这一武器系统应用可能造成的各方面影响还存在激烈,甚至对立的争议,因此,有关军控推进迫切需要加强国际监管,先应勒住这匹奔腾的“野马”防止其脱缰而逃,以免造成今后难以逆转的可怕后果和威胁。同时,依照现有国际法和军控机制,在国内、国家间和国际层面开展一项包容各方的进程,以决定如何着手处理这一问题。中国应推动国内审查新武器机制的完善努力,并适时启动致命性自主武器系统军控机制建构的谈判议程。为启动这一程序,需要由联合国相应机构组织政府专家组讨论、撰写长期的选择办法和机制框架草案。加强军控谈判中的战略沟通,并平等地向所有成员提供一些公正的信息,可减少信息的不对称性,从而有助于消除不确定性,增大安全合作的机会。与此同时,“相比集体领导而言,多元领导是描述这种有差异的、采取主动行为进程的恰当词语。”为维护该安全领域的战略力量平衡,在具体条件许可的情况下,中国应积极推动联合国主导下的多元领导,反对任何霸权企图,在维护战略稳定性的前提下,建构致命性自主武器系统军控机制。

  参考注释

  *衷心感谢《现代国际关系》编辑部和匿名审稿专家的建设性修改意见。

  《决胜全面建成小康社会夺取新时代中国特色社会主义伟大胜利》,载本书编写组编著:《党的十九大报告辅导读本》,人民出版社2017年10月版,第30页。

  UnitedNations,“Reportofthe2017GroupofGovernmentalExpertsonLethalAutonomousWeaponsSystems”,December2017,p.7.

  FutureofLifeInstitute,“AutonomousWeapons:AnOpenLetterfromAI&RoboticsResearchers,”July2015.

  TyMcCormick,“LethalAutonomy:AShortHistory,HowKillerRobotsBecameMoreThanJustScaryScienceFiction”,ForeignPolicy,January2014.

  VincentBoulaninandMaaikeVerbruggen,“MappingTheDevelopmentofAutonomyinWeaponSystems”,StockholmInternationalPeaceResearchInstitute,November2017,p.38.

  AmritSingh,“DeathbyDrone,OpenSocietyFoundations”,OpenSocietyJusticeInitiative,August2015,p.31.

  MarkPrigg,“WhoGoesThere?SamsungUnveilsRobotSentryThatCanKillFromTwoMilesAway”,DailyMail,September15,2014.

  ClayDillow,“WhatTheX-47BRevealsAboutTheFutureOfAutonomous”,Flightpopularscience,July6,2013.

  CillianZeal,“USMilitaryUnveilsMonstrousDroneWarship‘SeaHunter’”,WesternJournal,February6,2018.

  DanielBrown,“RussiaSaysItHasDeployedItsUran-9RoboticTanktoSyria—Here'sWhatItCanDo”,BusinessInsider,May15,2018.

  USDepartmentofDefense,“UnmannedSystemsRoadmap2007–2032”,December2007,p.53.

  Headquarters,UnitedStatesAirForce,“UnitedStatesAirForceUnmannedAircraftSystemsFlightPlan2009-2047”,May2009,p.50.

  TheUnitedStatesofAmerica,“HumanitarianBenefitsofEmergingTechnologiesintheAreaofLethalAutonomousWeaponSystems”,March2018,p.6.

  TamirEshel,“RussianMilitarytoTestCombatRobotsin2016”,DefenseUpdate,December31,2015.

  JohnDyer,“IvantheTerminator:RussiaIsShowingOffItsNewRobotSoldier”,ViceNews,May26,2016.

  GregAllenTanielChan,“ArtificialIntelligenceandNationalSecurity”,BelferCenterforScienceandInternationalAffairs,July2017,p.21.

  JohnKoetsier,“StephenHawkingIssuesSternWarningOnAI:CouldBe'WorstThing'ForHumanity”,Forbes,November6,2017.

  JasperHamill,“ElonMuskfearsglobalartificialintelligencearmsracecouldsparkWorldWar3”,TheSun,September4,2017.

  HumanRightsCouncilTwenty-thirdsession,“ReportoftheSpecialRapporteuronextrajudicial,summaryorarbitraryexecutions,ChristofHeyns”,UnitedNationsGeneralAssembly,April92013,p.11.

  ErinHuntandPiotrDobrzynski,TheRighttoDignityAndAutonomousWeaponSystems,CCWReport,April2018Vol.6,No.3,p.5.

  彼得·阿萨罗著,韩阳译,《论禁止自主武器系统:人权、自动化以及致命决策的去人类化》,载《红十字国际评论》2012年第2期,第201页。

  HeatherRoff,“Banningandregulatingautonomousweapons”,BulletinoftheAtomicScientists,November24,2015.

  ThompsonChengeta,“AccountabilityGap,AutonomousWeaponSystemsandModesofResponsibilityinInternationalLaw”,Mar2016,p.1.

  HumanRightsCouncilTwenty-thirdsession,“ReportoftheSpecialRapporteuronextrajudicial,summaryorarbitraryexecutions,ChristofHeyns”,UnitedNationsGeneralAssembly,April92013,p.14.

  K.Lawandetal,“GuidetotheLegalReviewofNewWeapons,MeansandMethodsofWarfare”,ICRC,Geneva,2006,p.4.

  InternationalCommitteeoftheRedCross,“ProtocolAdditionaltotheGenevaConventionsof12August1949,AndRelatingtotheProtectionofVictimsofInternationalArmedConflicts(ProtocolI),of8June1977”,June1997,p.240.

  AutonomousWeaponSystemsunderInternationalLaw,GenevaAcademy,November2014,p.22.

  “DavidIgnatiusandPentagon’sRobertWorkTalkAboutNewTechnologiestoDeterWar”,WashingtonPost,March30,2016.

  PatrickCaughill,“VladimirPutin:CountryThatLeadsinAIDevelopment‘WillbetheRuleroftheWorld’,”Futurism,September2,2017.

  JasonBorenstein,“TheEthicsofAutonomousMilitaryRobots,”StudiesinEthics,Law,andTechnology,vol.2,issue1,2008,p.8.

  AndreaShalal,“ResearcherstoBoycottSouthKoreanUniversityOverAIWeaponsWork”,U.S.News,April4,2018.

  JürgenAltmannandFrankSauer,“AutonomousWeaponSystemsandStrategicStability”,Survival,vol.59,no.5,October2017,pp.125-126.

  徐徐:“联合国试图就杀手机器人使用达成协议”,《中国科学报》,2015年4月15日。

  MarkPrigg,“UNtodebate'killerrobot'bannextyearasexpertswarntimeisrunningouttostopAIweapons”,DailyMail,December16,2016.

  中国常驻联合国代表团孙磊参赞在2016年联合国裁审会实质性会议一般性辩论中的发言2016年4月4日。

收藏 分享

声明:凡注明来源"钝角网"文章的,转载请注明出处、作者、原文链接。本网站作为互联网言论交流平台,所刊发文章并不代表本站立场。
参与评论