2月,以色列军队首次宣布,在加沙部署了一些人工智能武器装备。无独有偶,在俄乌冲突中,双方均被指部署了人工智能驱动的武器装备或信息系统。这些消息引发了人们对军事冲突中使用人工智能武器风险的担忧。

 

军事专家警告称,人工智能也会犯错误,在军事冲突中,这些错误可能导致大规模平民伤亡。国际组织呼吁,在武装冲突中使用人工智能具有重大的人道、法律、道德和安全影响,各国必须保持人类对机器的有效控制。

 

军事人工智能犯错可能导致大规模平民伤亡

 

一名以色列高级国防官员在2月初表示,以色列国防军在加沙部署了由人工智能驱动的新型装备。包括由以色列“智能射手”公司开发的人工智能瞄准镜,它可以安装在步枪、机枪等武器上,“可以让每一名普通士兵成为狙击手”,该官员说。

 

以军在加沙还部署了由人工智能驱动的无人机。这些无人机被用于探测和绘制加沙庞大的地道网络,同时可以检测在地下活动的人。加沙的地道网络据称总长超过500公里,自以军在加沙开展地面行动以来,这些地道网络一直是以军行动的重点目标。

 

以军在军事行动中投入的人工智能不止于战场上的装备。据以色列媒体去年年底报道,以色列国防军在指挥系统中部署了人工智能来帮助其选定在加沙空袭的目标。

 

一位不愿透露姓名的以色列前情报官员说,以军使用一种名为“Habsora”(在希伯来语中意为“福音”)的人工智能算法帮助挑选空袭目标。这个算法大幅提升了以军挑选空袭目标的效率,把以色列空军转变成了高效率的“大规模暗杀工厂”。


当地时间2024年2月23日,加沙地带中部城市代尔拜拉赫,以色列军队空袭一处住宅,造成至少22人死亡、数十人受伤。图/IC photo

 

据报道,军事专家表示,有理由对以军在战场上应用人工智能技术感到担心。专家认为,人工智能是由人类创造和训练的,训练它们的人犯下的错误,会在人工智能上再现;不过,人工智能会以一种速度更快、规模更大的方式重复这些错误。

 

澳大利亚空中力量智库的分析师卡洛·科普表示,依靠人工智能选择空袭目标,相比由人类在空袭前进行综合分析并选择目标,可能会造成更大的平民伤亡。在最坏的情况下,由人工智能决策的空袭会造成大规模平民死亡。

 

巴勒斯坦加沙地带卫生部门当地时间2月29日发表声明说,自新一轮巴以冲突爆发以来,以色列军队在加沙地带军事行动造成的死亡人数超过3万,其中,超过70%是妇女和儿童。此前,有以色列媒体指出,以军使用的人工智能算法至少对加沙的平民死亡人数负有部分责任。

 

俄乌双方均使用人工智能指挥无人机作战

 

据外媒报道,在俄乌冲突中,双方都部署了应用人工智能识别和瞄准目标的小型无人机。

 

今年2月的一篇报道称,俄乌双方各自部署的无人飞行器数量均达数百万架,用于对敌方阵地进行侦察和攻击,双方都依赖人工智能来指挥无人机作战。其中,部分无人机是由民用无人机改造而成,另一些则是先进的军用无人机。

 

去年11月发表的另一篇报道称,俄军在战场上使用最有效的无人机之一是“柳叶刀”-3型自杀式无人机。该型号无人机体积小、机动性强、难以被探测或击落。一架“柳叶刀”-3型无人机的成本约合3.5万美元,但可以损坏或摧毁价值数百万美元的主战坦克和其他装甲战车。

 

据报道,过去,无人机作战的成效往往取决于操作员的技能,但俄罗斯正在把更多的人工智能技术融入无人机,使无人机能够自主运行。例如,由人工智能支持的目标探测技术允许无人机在飞行中对地面车辆的形状进行识别。一旦人工智能确认某个车辆的形状具有乌克兰武器系统的特征,无人机即可攻击该物体。人工智能甚至可以控制攻击角度,以造成最大伤害。

 

在这场实战中的人工智能竞赛中,乌克兰也不落下风。一位乌克兰高级军事官员在去年年底向法国议会代表团讲述,乌克兰军队如何将人工智能系统融入法国制造的凯撒自行火炮。

 

该军官解释说,人工智能将加快识别目标的过程,然后决定针对目标使用何种弹药。这其中节约的时间对于前线士兵来说可能生死攸关。此外,这种人工智能技术的应用还可以节省大量弹药,据乌克兰军方估计,人工智能可以节省30%的弹药使用量。


当地时间2024年2月6日,顿涅茨克地区,俄乌冲突持续,乌克兰武装部队第92独立突击旅士兵操作无人机。图/IC photo

 

“人工智能军火商”将乌克兰变成了战争实验室

 

许多美国和欧洲科技公司在战场内外与乌克兰方面进行合作,包括微软、亚马逊、谷歌、SpaceX等公司。

 

其中,就有两家颇具争议的美国科技公司——帕兰提尔技术公司(Palantir Technologies)和“明视”人工智能公司(Clearview AI)。

 

根据帕兰提尔技术公司首席执行官亚历克斯·卡普的公开言论,该公司为乌克兰提供的软件使用人工智能分析卫星图像、开源数据、无人机拍摄画面和地面情报等,为指挥官提供军事决策辅助。他说,“乌克兰军事打击的大部分目标定位过程用到了该软件。”

 

乌克兰军事官员接受了使用帕兰提尔技术公司软件的培训,他们能够在人工智能的协助下把攻击目标的位置传达给前线指挥官。卡普称,这是一套数字化“杀伤链”。

 

帕兰提尔技术公司总部位于美国科罗拉多州丹佛市,它自成立以来就争议不断。该公司的部分业务由美国中央情报局(CIA)的风险投资部门投资成立,该公司为美国移民和海关执法局(ICE)、联邦调查局(FBI)、国防部以及许多国家的情报机构提供数据分析软件。国际人权组织指责帕兰提尔公司漠视人权,该公司的产品帮助美国政府机构跟踪和识别移民和寻求庇护者。

 

“明视”人工智能公司则向18个乌克兰政府机构的1500多名官员提供了该公司开发的人脸识别工具。据称,乌克兰政府已使用该工具识别了超过23万名俄罗斯士兵和军官。

 

“我们每天都能识别出数百名带着武器来到乌克兰的俄罗斯人。”一位乌克兰高级官员说,他每上传一张俄罗斯士兵的照片,人脸识别软件就会显示出该士兵的姓名、家乡和社交媒体简介等信息。

 

乌克兰政府还使用人脸识别工具识别乌克兰的亲俄民兵和其他亲俄人员。据“明视”人工智能公司披露,乌克兰方面在20个月内对“明视”数据库进行了至少35万次检索。

 

此前,“明视”人工智能公司因从互联网上抓取数十亿张公开照片来收集数据而受到批评。批评者抨击“明视”人工智能公司的行为“令人毛骨悚然”。该公司受到了一系列诉讼、罚款和法庭签发停止令等打击。该公司在奥地利、法国、希腊、意大利和英国等地被视为非法。人权组织和隐私倡导者还警告说,即使在冲突结束后,乌克兰政府可能也难以断绝对“明视”人脸识别工具的使用。

 

帕兰提尔技术公司和“明视”人工智能公司都宣称免费向乌克兰提供软件。但批评者指责这些公司试图利用冲突来展示其技术,从而达到自我宣传的目的。

 

“他们是21世纪的人工智能军火商。”美国国家安全专家雅各布·赫尔伯格说。据美国媒体报道,这些“人工智能军火商”将乌克兰变成了一个人工智能战争实验室。卡普承认,在战场上,他们可以做一些在一般环境中做不到的事情。

 

一些专家还称,这些掌握军事人工智能技术的私营公司令人不安。“这是有史以来第一次,在一场战争中,大多数关键创新技术不是来自政府资助的实验室,而是来自私营公司。”斯坦福大学“戈尔迪之结国家安全创新中心”的联合创始人史蒂夫·布兰克对媒体说,“装有妖怪的魔瓶被打开了。”

 

国际组织呼吁,必须保持人类对机器的有效控制

 

人工智能等新技术在冲突中的应用引发了全球对人权的关注和担忧。

 

2023年12月,150多个国家和地区支持了一项联合国决议,该决议明确了新军事技术带来的“严重挑战和问题”,其中就包括“武器系统中的人工智能和自主性”。

 

“我们今天看到的最糟糕的伤亡和苦难中,有一部分是由新技术带来的。”一家国际组织的武器研究专家玛丽·韦勒姆说,近期发生的冲突中不断上升的平民死亡人数表明,新军事技术的使用需要受到更大力度的监督。

 

人工智能是否应该被用于选择空袭目标?机器能否决定何时以及向哪个目标开火?这些关于人工智能在军事冲突中应用的话题引发了激烈的辩论。

 

2022年2月,《原子科学家公报》曾刊发一篇题为“让人工智能控制核武器:可能会出什么问题?”的文章。作者给出的回答是:“如果人工智能控制了核武器,人类可能会灭亡。”作者称,风险在于人工智能可能会因为其编程或其设计的缺陷而犯下可怕的错误。

 

在美国军方的人工智能实验中,就有无数出错的例子,人工智能系统会把农民误认为是潜入的恐怖分子;有人在路边停车更换轮胎,人工智能却误认为有人在路边埋放炸弹;人工智能还在观察一场婚礼时得出这是恐怖分子聚会的错误结论。

 

红十字国际委员会此前发文呼吁称,在武装冲突中使用人工智能具有重大的人道、法律、道德和安全影响。随着人工智能迅速融入军事系统,各国必须明确并解决这其中的风险。

 

红十字国际委员会的文章称,各国在使用人工智能执行可能对人类生命产生严重后果的任务或决策时,必须保持人类对机器的有效控制,“战争中的法律义务和道德责任绝不能‘外包’给机器和软件。”

 

新京报记者 陈奕凯

编辑 张磊 校对 张彦君