撰写了关于如何利用人工智能减少对平民的伤害的文章。该建议建议军事指挥官可以使用人工智能将战场区域的实时图像与指挥官所依赖的图像进行比较,以便初步评估袭击可能对平民造成的伤害程度。此后,如果人工智能检测到平民进入该区域,它可以向指挥官和实施袭击的人发出警报。这些并不是人工智能可以改进对国际人道法遵守情况监测的唯一可能应用。由于人工智能可以使用不同格式的信息作为输入,并且它有能力检测数据中的模式,因此可以使用人工智能作为一种工具,帮助人类分析“理性”指挥官如何可能就某项或一系列军事行动的计划和实施做出决定。
如何利用人工智能辅助分析军事行动是否符合国际人道法
人们可以使用人工智能作为一种工具,帮助分析特定军事行动的实施在多大程度上偏离了“合理”指挥官计划的军事行动。此外,人们可以使用人工智能来帮助确定对基辅等乌克兰城市发动连续密集空袭是否构成暴力行为,其主要目的是恐吓平民,违反了1977 年美国联邦宪法第 51(2) 条。要了解为什么人工智能可以成为帮助评估这方面法律合规程度的工具,首先必须考虑有关该问题的法律。
红十字国际委员会认为, 1977 年《美洲人权公约》第 51(2) 条的禁令 奥地利资源 具有习惯国际法地位。瑞士《基本军事手册》规定,“禁止以在平民中散布恐怖为主要目的实施暴力行为或威胁使用暴力”(第 27(2) 条和第 70 DB 页的评论)。联合国人权委员会特别报告员在前南斯拉夫局势中指出,塞族军队使用了一种恐吓平民的策略,即定期轰炸城市(第 17 和 20 段)。
在评估是否遵守《1977 年美联社条约》第 51(2) 条时,可能会考虑袭击者是否未遵守国际人道法的其他规范。在关于科索沃人权状况的第 53/164 号决议序言中,联合国大会对针对阿尔巴尼亚族的系统性恐吓表示严重关切。大会推断,这种情况是由于各种行为造成的,包括不分皂白的炮击。另一项与当前局势相关的禁令是《1977 年美联社条约》第 57(2)(a)(iii) 条,该条禁止发动可能对平民造成过分附带伤害的袭击,而这种伤害与具体和直接的军事优势相比过于严重。这条规则具有习惯国际法地位。袭击偏离比例原则的程度越大,指挥官意图恐吓平民的可能性就越大。人们可以利用人工智能来补充人类的分析,以评估军事行动与“合理”指挥官对平民伤害的评估的匹配程度。
在编写人工智能程序时,人们可以将许多战场场景输入人工智能,预先指定特定变量如何影响打击的准确性,并输入有关不同因素如何影响可能对平民造成的伤害程度的信息。人们可以将信息输入人工智能,例如所用武器的类型、武器的精确度半径、弹药在弹着点与物体接触的角度以及该地区的民用基础设施类型。在评估特定军事行动的阶段,人们可以使用卫星图像和对该地区平民的采访等信息作为输入。然后,人工智能可以通过使用战场环境的计算机模型和有关过去军事行动的数据来计算“合理”指挥官可以预期造成的伤害程度。各国武装部队一直在使用软件来模拟袭击可能对平民造成的伤害程度(第 344 页)。