「澳大利亚科学院院士Toby Walsh:全球应就军事(通用)人工智能的规范使用和伦理问题发表有效讨论」
2022年11月28日,加拿大国际治理创新中心(Centre for International Governance and Innovation, CIGI)发布澳大利亚科学院院士、新南威尔士大学人工智能科学教授Toby Walsh撰写的《战争中的(通用)人工智能问题(The Problem with Artificial (General) Intelligence in Warfare)》。文章针对当前人们普遍混淆人工智能(Artificial Intelligence,AI)和通用人工智能(Artificial General Intelligence,AGI)的情况,讨论了两者的区别、以及战争中使用两者的作用和风险。人工智能会是管制地雷的有效手段,现在是时候在全球范围内引起应用于战争中的(通用)人工智能的讨论,并思考人工智能在战争中的发展和规范使用。文章最后指出,联合国在《特定常规武器公约》(Convention on Certain Conventional Weapons,CCW)上进行了10年的讨论,但收效甚微。
作者指出,从技术角度,我们要区分的是人工智能和通用人工智能,分别考虑这两者的未来,这是由于两者带来的技术、法律和伦理挑战迥异。人工智能目前专注于狭窄的任务,因此我们难以编写软件来完成广泛的任务。或与人类的灵活性、适应性和创造力相匹配,这将把我们带向AGI。AGI可以完成人类可以完成的任何任务。它也被称为强AI(相对于弱AI或狭义AI),超越AGI的是超级智能,智能体的智能远远超过人类水平。
作者举例,他几年前参加的联合国召开的一次专门讨论致命自主武器的CCW年度会议。在该会议上一些外交官谈到,未来战争将由极其智能、甚至可能具有自我意识的机器主导。但另一些参会者则在讨论一种即将出现的简单无人机,这种无人机可以在没有任何人类控制的情况下识别、跟踪和瞄准地面人员。作者认为,把这两种情况混为一谈是一个根本性的错误,而正在进行的关于是否、如何以及何时监管致命自主武器的讨论也受到了这种混淆的影响。人工智能有很多不同的定义,而广义上讲,人工智能研究人员正试图开发软件来执行智能才能完成的任务。人类使用智能来感知、推理、行动和向世界学习。因此,人工智能包括感知(“我在北方能看到什么?”)、推理(“那些向我北方撤退的士兵仍然是威胁吗?”)、行动(“我如何最好地采取行动来对抗这些敌方单位构成的威胁?”)和学习(“我能从这次与敌人的敌对遭遇中学到什么?”)等任务。这种困惑也许并不奇怪,毕竟这是好莱坞电影给我们传达的信息。一方面,电影让我们为前者做好准备,思考我们会不会有一天遇到像《终结者》电影中T-800那样智力远远超过人类的智能类人机器人;另一方面,《天使坠落》(Angel Has Fallen)和未来生命研究所(Future of Life Institute)在YouTube上的视频《屠宰机器人》(Slaughterbots)等影片让我们为第二个更简单的自动无人机未来做好了准备。将来的某一天,相对简单的无人机会使用我们智能手机中已经存在的面部识别软件来追捕人类吗?联合国最近的一份报告甚至表明,这种未来可能已经存在了, tp钱包官网下载app因为根据2021年联合国安理会的报告,tp钱包官方下载这种无人机已经在2020年3月的利比亚军事冲突中使用。该报告表明,土耳其制造的无人机在没有任何数据连接的情况下追捕并消灭了哈利法·哈夫塔尔(Khalifa Haftar)的撤退部队。
作者表示,AGI在科学研究中是少数人的追求,有一些知名的研究机构将AGI作为总体目标,比如Alphabet的DeepMind和微软支持的OpenAI;而大多数大学和行业人工智能中心正将精力集中在(狭义)人工智能更直接的开发和部署上,并已获得有价值的回报。相较之下,AGI可能还有一段路要走。在一项对全球300名人工智能专家的调查中,没有人认为它会在未来5年或10年内到来,一些人认为实现AGI的时间估计中值为2062年,92%的人估计这将在下个世纪的某个时候发生,还一小部分人认为我们可能永远不会实现AGI。然而,他们的估计有很大的差异。我们很难知道我们需要做些什么才能实现这一目标,也很难知道需要多长时间。然而,我们所知道的是任何物理定律都无法阻止我们最终实现这一目标。
作者进一步指出,AI与AGI投入军事使用将不可避免地会有优势和挑战。例如,因为士兵进入雷区需要冒着生命危险,而人工智能机器人是清除雷区的完美方案;使用自动驾驶卡车是向有争议的领土运送物资的完美手段,这其中需要人工智能进行感知、推理和行动;人工智能也可以更好地管理现代战场的信息需求,最重要的是它将使人类完全从战场上消失。但人工智能军事应用也存在一些风险,其中最大的风险之一是“不称职”( incompetence)。因为区别和相称性等原则不容易编程,或者甚至最终也无法嵌入机器中,因此可能存在将决定生死的决定权交给可能无法遵守《国际人道法》(International Humanitarian Law, IHL)的机器的风险。但是,如今部署的人工智能并不支持这些原则,比如被用于在利比亚追捕和击毙撤退部队的自动无人机。同样,在不久的将来部署的人工智能系统将无法遵守《国际人道法》。此外,军方可能会谨慎地部署具有人工智能功能的武器,但如果使用者是一名恐怖分子,他不会在意人工智能武器的准确率是否只有50%。第二个风险是改变战争的速度、规模和性质。代码的伟大之处在于,一旦让计算机做一次事情,就可以让它做一千次,并且计算机的工作时间比人类快得多。以前筹备一支军队,需要为军队提供装备和食物,当将人工智能投入战争中使用后,只需要一个程序员。与军队不同的是,无论命令如何违反道德准则,计算机都将毫不犹豫地执行任何命令。第三个风险是威胁稳定,这将导致发生意外冲突的可能性急剧增加。当复杂的人工智能系统在对抗环境中相互面对时,经常会得到意想不到的反馈和崩坏,就像股票市场一样。此外,我们业可能很难确定谁是人工智能武器的幕后黑手,鉴于这种不确定性,我们面临着决定作出如何反应的困难问题。作者表示,AGI的使用可以消除一些风险。例如,根据AGI的定义,将不存在无能的风险。任何AGI系统都必须像人类一样有能力,其可能拥有更好的传感器,以及各种计算优势,但依然存在一定风险。但是如果AGI系统的能力更强,错误更少,那么也会产生新的伦理问题,即我们是否在道德上合理地让人类继续打仗。以及如果AGI系统实现或需要感知能力,那么就可能有道德义务保护它们免受痛苦。然而我们对生物的意识的了解甚少。
作者最后强调,人工智能武器将成为恐怖武器和错误武器,且这种威胁非常紧迫。我们迫切地需要规范如何将生死决策权交给基于人工智能的系统。而AGI的威胁可能要遥远得多。此外,最重要的一点是,国际社会必须就在规范战争中人工智能的使用达成一致。鉴于联合国在《特定常规武器公约》上进行了10年的讨论,但收效甚微,是时候让在这一领域发挥领导作用的国家来扩大讨论范围了。
Toby Walsh:澳大利亚科学院院士,国际人工智能协会(Association for theAdvance of Artificial Intelligence, AAAI)执行委员会成员,新南威尔士大学人工智能科学教授、人工智能研究所首席科学家。
原文链接:
https://www.cigionline.org/articles/the-problem-with-artificial-general-intelligence-in-warfare/