以无人机为代表的无人作战系统逐步发展成熟,在局部战争与地区冲突中不断更新迭代,成为现代战争的标志性技术。随着人工智能技术深度嵌入军事领域,无人作战系统的人类控制权边界问题成为军事伦理争议的核心焦点。操作员责任与算法自主性张力日甚,“人在回路”原则面临技术困境与法理挑战,结合实践的分层级控制权配置方案为智能时代军事行动的伦理规范提供了可能的理论支撑。
技术赋权下的控制权悖论
无人作战系统的智能化发展催生了两大趋势。首先,操作员责任链条延伸趋势明显。现代无人系统操作员需同时承担“战术决策者”“算法监督者”“伦理审查者”三重角色。MQ-9“死神”无人机操作手册规定,操作员需对攻击目标的“合理性”承担终身追责义务。然而,国外相关研究表明,系统自主识别目标误击率始终高达5%至10%,使责任认定陷入“技术迷雾”。其次,算法自主性出现显著扩张冲动。“哈洛普”巡飞弹具备自主识别并攻击雷达信号的能力,其决策周期仅0.3秒,远超人类反应极限。
这种“以秒为单位的战争”倒逼算法接管部分决策权,但联合国《特定常规武器公约》(CCW)专家会议指出,完全自主攻击可能违反“区分原则”与“比例原则”。由此可见,技术赋权下的控制权悖论核心矛盾在于人类认知速度与机器决策效率的“剪刀差”,导致控制权让渡成为战术刚需,但责任归属机制却难以同步适配。
人类控制权边界的实践困境
操作员责任与算法自主性之间的张力,带来了控制权边界实践的三重困境。法律上,引发了如何界定责任归属并制定相应监管规则的难题。技术上,造成了如何既保持人类对算法的有效控制又不削弱算法自主性和性能的挑战。伦理上,凸显出如何确保算法自主决策符合人类道德原则与社会价值观的矛盾。
在法律层面,国际法存在滞后性与解释冲突。日内瓦公约第一附加议定书第36条要求对新型武器进行“法律审查”,但自主武器的“动态学习能力”使审查标准失效。由于这些武器的行为可能随着不断学习而发生变化,传统的静态评估方法难以在部署前全面预测其表现,导致审查标准在实际应用中难以落地。2021年联合国安理会关于也门无人机袭击的辩论中,不同国家就算法决策是否构成“直接参与敌对行动”产生严重分歧,揭示出国际法对“人类控制”的量化标准缺失的问题。据联合国“安全理事会第1973(2011)号决议所设利比亚问题专家小组的最后报告”,Kargu-2无人机在无实时人工干预下自主攻击目标,不仅引发法律与伦理争议,更暴露出现有框架对动态行为预测的不足。面对技术的迅猛发展,国际社会迫切需要更新法律框架并达成共识,以确保自主武器的使用符合人道主义原则,并为责任归属提供清晰依据。
在技术层面,“人在回路”可操作性危机显现。通信延迟是最普遍的现象,在深海、深空作战场景中,信号延迟可能超过10分钟,“虎鲸”超大型无人潜航器曾出现过类似延迟,此种现象迫使操作系统进入全自主模式。在深海环境下,水压和洋流干扰可能导致数据包丢失,进一步延长延迟时间,使人类操作员几乎无法实时监控或干预系统行为。在深空任务中,地球与目标之间的距离使得信号往返时间成为不可逾越的障碍。这种情况下,无人系统将不得不依赖预设算法独立运行,如果算法本身存在缺陷或未能充分适应突发状况,后果则不堪设想。与此同时,算法黑箱让人类面临两难,深度学习模型极其复杂,神经网络驱动的目标识别系统缺乏可解释性,操作员难以判断攻击指令的生成逻辑。2022年2月埃塞俄比亚无人机误击难民营事件至今未能得到合理解释,原因可能是算法受到了训练数据偏差的影响,而缺乏透明的决策记录则使得责任追究变得无从下手。
在伦理层面,道德判断的主体性消解。操作员长期执行无人机打击任务后,其决策敏感性显著下降,对潜在平民风险的响应时间延长,从而引发“道德脱敏”现象。算法的“情感隔离”特质虽能减少心理创伤,但也削弱人道主义考量,形成“道德漂移”,即操作员在远程作战中逐渐对战争的道德责任变得麻木,把攻击行动当成流程来执行。《得克萨斯国家安全评论》刊发的相关研究显示,超过60%的无人机操作员在执行任务时感到“道德冲突”:他们知道自己的行为可能伤害无辜者,但又没有足够的伦理指导或心理支持。针对远程作战带来的心理影响,有研究者指出,强化技术伦理将是进一步开发、测试和部署军事自动化技术的道德要求。
分层控制:构建人机协同可能性
面对无人作战中日益严峻的伦理挑战,保持对人机协同的有效监管,将直接影响相关伦理原则的践行。
一是尝试建立“任务分级—控制权配置”动态模型,按照任务层级配置控制权并明确责任主体。例如,防空压制类的战役突击,可由人机协同决策,战区指挥官与算法审计组是责任主体。“定点清除”类的战术打击可有限自主执行,责任主体明确到操作员与技术责任官。这种动态模型的应用还需考虑实际作战中的动态变化。随着战场环境或任务目标的调整,控制权配置应具备实时调整的能力,以适应突发情况。
二是技术创新与制度设计双轮驱动。开发伦理嵌入型算法,如“彩虹-6”无人机已经实现的功能:在目标识别模块植入“三阶验证”机制,即地理围栏筛查、行为模式分析、人工最后确认。同时,构建“数字责任链”,运用区块链技术记录决策数据流,确保从算法训练到战场行动的全流程可追溯。区块链的不可篡改特性不仅为事后追责提供了可靠的依据,还通过透明性威慑潜在的不当行为,促使参与者在决策时更加审慎。技术创新借助伦理嵌入型算法提高决策的道德敏感性,制度设计依托数字责任链保障行为的法律可追溯性。通过两者的共同推动,自主武器的伦理合规性和法律约束力将显著增强,为其安全应用奠定坚实基础。
三是推动全球治理规则创新。智能化武器如“致命性自主武器系统”(LAWS)是科技发展和新军事革命的产物,既关乎国防安全,也事关人道主义。国际社会对该问题的重视和理解程度也在不断上升。为确保人工智能发展的安全、可靠、可控,有些国家已经向联合国《特定常规武器公约》审议大会提交了规范人工智能军事应用的立场文件,主张研发、部署和使用相关武器系统应秉持“智能向善”的原则,避免相关武器系统的误用恶用。确保有关武器系统永远处于人类控制之下,保障人类可随时中止其运行。坚持人类是最终责任主体,建立人工智能问责机制,对操作人员进行必要的培训。在此框架下,明确“算法决策视为人类意志延伸”的法律推定规则,通过将算法行为归于人类意图,进一步明确责任归属,其落实仍需克服算法复杂性与法律适配性的双重挑战。
无人作战中人类控制权边界,本质是技术理性与战争伦理的再平衡过程。只有通过技术可控性增强、法律责任制完善、全球治理共识凝聚的协同推进,才能避免“算法滥用”与“责任虚无”的双重陷阱,为智能化军事革命筑牢伦理护栏。
文章来源:学习时报
责任编辑:邱梦颖