查看原文
其他

人工智能是战争的未来

多米特 情报分析师 2023-01-15

人工智能是有望在未来几年改变战争面貌的众多热门技术之一。描述其可能性的文章比比皆是,并警告那些在人工智能竞赛中落后的人。美国防部已经适当地创建了联合人工智能中心,希望赢得人工智能之战。

人工智能的愿景使自主系统能够执行任务,实现传感器融合,自动化任务,并做出比人类更好,更快的决策。人工智能正在迅速发展,在未来的某一天,这些目标可能会实现。与此同时,人工智能的影响将体现在我们的军队在无争议的环境中执行的更平凡、沉闷和单调的任务中。

人工智能是一种快速发展的能力。学术界和工业界的广泛研究正在缩短系统的培训时间,并越来越好的结果。人工智能在某些任务中很有效,例如图像识别、推荐系统和语言翻译。今天,许多为这些任务设计的系统都已投入使用,并产生了非常好的结果。

在其他领域,人工智能还远远达不到人类水平的成就。其中一些领域包括使用 AI 以前没有看到的场景、理解文本、上下文理解、多任务处理(即能够解决多种类型的问题)。如今,大多数人工智能系统都被训练为完成一项任务,并且只有在非常特殊的情况下才能这样做。与人类不同,它们不能很好地适应新环境和新任务。

人工智能模型每天都在改进,并在许多应用中显示出其价值。这些系统的性能可以使它们在卫星图像中识别T-90主战坦克,使用面部识别识别人群中的高价值目标,翻译文本以进行开源情报以及文本生成以用于信息操作等任务非常有用。人工智能最成功的应用领域是那些有大量标记数据的领域,如Imagenet、谷歌翻译和文本生成。

人工智能在推荐系统、异常检测、预测系统和竞技游戏等领域也非常有能力。这些领域的人工智能系统可以帮助军方在其合同服务中进行欺诈检测,预测武器系统何时会因维护问题而失效,或者在冲突模拟中制定制胜策略。所有这些应用程序以及更多应用程序都可以在日常操作和下一次冲突中成为力量倍增器。


人工智能在军事应用中的不足

由于军方希望将人工智能在这些任务中的成功纳入其系统,因此必须承认一些挑战。首先是开发人员需要访问数据。许多人工智能系统都是使用一些专家系统标记的数据(例如,标记包含防空电池的场景)进行训练的,通常是人类。大型数据集通常由采用手动方法的公司标记。

获取并共享这些数据是一项挑战,特别是对于喜欢对数据进行分类并限制对数据的访问的组织而言。一个示例军事数据集可能是由热成像系统生成并由专家标记的图像,以描述图像中发现的武器系统。如果不与预处理器和开发人员共享,就无法创建有效使用该集的 AI。

人工智能系统也很容易变得非常大,因此容易受到“维度问题”的影响。例如,训练一个系统来识别现有的每个可能的武器系统的图像将涉及数千个类别。这样的系统将需要大量的计算能力和大量的专用时间在这些资源上。由于我们正在训练一个模型,所以最好的模型需要无限数量的这些图像才能完全准确。这是我们无法实现的。


此外,当训练这些人工智能系统时,我们经常试图强迫它们遵循“人类”规则,如语法规则。然而,人类经常忽略这些规则,这使得为情感分析和语音识别等事情开发成功的人工智能系统具有挑战性。最后,人工智能系统可以在无争议的受控领域很好地工作。然而,研究表明,在对抗条件下,人工智能系统很容易被愚弄,导致错误。当然,许多国防部人工智能应用程序将在竞争空间中运行,例如网络领域,因此,我们应该警惕它们的结果。

忽略敌人击败我们可能使用的人工智能系统的努力,这些看似超人的模型存在局限性。当给定与其训练集不同的图像时,AI 的图像处理能力不是很强大,例如,照明条件较差、角度钝或部分遮挡的图像。除非这些类型的图像在训练集中,否则模型可能难以(或无法)准确识别内容。可能有助于我们信息操作任务的聊天机器人仅限于数百字,因此无法完全取代一次可以写页面的人。

预测系统,如IBM的Watson天气预测工具,由于它们试图建模的系统的复杂性,正在努力解决维度问题和输入数据的可用性。研究可能会解决其中一些问题,但很少有人会像预测或期望的那样迅速解决。


人工智能系统的另一个简单弱点是它们无法同时处理多项任务。人类能够识别敌方车辆,决定用于对付它的武器系统,预测其路径,然后与目标交战。这组相当简单的任务目前是人工智能系统无法完成的。充其量,可以构建AI的组合,其中将单个任务分配给单独的模型。这种类型的解决方案,即使可行,也需要在传感和计算能力方面产生巨大的成本,更不用说系统的训练和测试了。

许多人工智能系统甚至无法在同一领域内转移他们的学习。例如,训练识别T-90坦克的系统很可能无法识别Z国99式坦克,尽管它们都是坦克,而且任务都是图像识别。许多研究人员正在努力使系统能够转移他们的学习,但这样的系统距离生产还有几年的时间。

人工智能系统在理解输入和输入中的上下文方面也非常差。人工智能识别系统不理解图像是什么,它们只是学习图像像素的纹理和渐变。给定具有相同渐变的场景,AI很容易错误地识别图片的某些部分。这种缺乏理解可能导致人类不会做出的错误分类。

这导致了这些系统的另一个弱点——无法解释他们是如何做出决定的。人工智能系统内部发生的大多数事情都是一个黑匣子,人类几乎无法理解系统如何做出决策。对于高风险系统来说,这是一个关键问题,例如那些做出参与决策的系统或其输出可用于关键决策过程的系统。


审核系统并了解其错误原因的能力在法律和道德上都很重要。此外,在涉及人工智能的情况下,我们如何评估责任的问题是公开的研究问题。最近新闻中有很多例子,人工智能系统基于贷款批准和假释决定等领域的隐藏偏见做出糟糕的决定。

人工智能系统也很难区分相关性和因果关系。经常用来说明差异的臭名昭著的例子是溺水死亡与冰淇淋销售之间的相关性。一个人工智能系统提供了关于这两个项目的统计数据,不会知道这两种模式只是相关的,因为两者都是天气变暖的函数,并且可能会得出结论,为了防止溺水死亡,应该限制冰淇淋的销售。这种类型的问题可能表现在军事欺诈预防系统中,该系统按月提供购买数据。这样的系统可能会错误地得出结论,欺诈行为在随着支出的增加而增加,而实际上这只是年终消费习惯的一个功能。

即使没有这些人工智能弱点,军方目前应该关注的主要领域是对抗性攻击。我们必须假设潜在的对手会试图愚弄或破坏我们使用的任何可访问的人工智能系统。将试图愚弄图像识别引擎和传感器;网络攻击将试图逃避入侵检测系统;物流系统将被输入更改的数据,以错误的要求堵塞供应线。

对抗性攻击可以分为四类:逃避、推理、中毒和提取。已经表明,这些类型的攻击很容易完成,并且通常不需要计算技能。逃避攻击经常试图欺骗人工智能引擎,希望避免被发现——例如,隐藏网络攻击,或者让传感器相信坦克是校车。未来的主要生存技能可能是躲避人工智能传感器的能力。因此,军方可能需要开发一种新型的人工智能伪装来击败人工智能系统,因为事实证明,简单的混淆技术,如战略磁带放置,可以愚弄人工智能。规避攻击通常由推理攻击进行,推理攻击获取有关可用于启用规避攻击的 AI 系统的信息。


中毒攻击在训练期间针对 AI 系统以实现其恶意意图。这里的威胁是敌人访问用于训练我们工具的数据集。可以插入贴错标签的车辆图像以欺骗目标系统或操纵维护数据,以将即将发生的系统故障归类为正常运行。鉴于我们供应链的脆弱性,这并非不可想象,也很难被发现。提取攻击利用对 AI 接口的访问来充分了解 AI 的操作,从而创建系统的并行模型。如果我们的AI对未经授权的用户不安全,那么这些用户可以预测我们的系统做出的决策,并利用这些预测来发挥自己的优势。人们可以想象一个对手预测人工智能控制的无人系统将如何响应某些视觉和电磁刺激,从而影响其路线和行为。


军事人工智能应用的前进道路


人工智能肯定会在未来的军事应用中发挥作用。它有许多应用领域,可以提高生产力,减少用户工作量,并比人类更快地运行。正在进行的研究将继续提高其能力、可解释性和弹性。军方不能忽视这项技术。即使我们不接受它,我们的对手肯定会接受它,我们必须能够攻击和击败他们的人工智能。但是必须抵制这种复兴技术的诱惑。将易受攻击的人工智能系统置于有争议的领域并让它们负责关键决策,为灾难性后果提供了机会。此时,人类必须对关键决策负责。

鉴于我们暴露的人工智能系统受到攻击的可能性很高,而且目前人工智能技术缺乏弹性,投资军事人工智能的最佳领域是那些在无争议领域运行的领域。由人类专家密切监督或具有安全输入和输出的人工智能工具可以为军方提供价值,同时减轻对脆弱性的担忧。

此类系统的示例包括医学成像诊断工具、维护故障预测应用程序和欺诈检测程序。所有这些都可以为军方提供价值,同时限制对抗性攻击、有偏见的数据、上下文误解等风险。这些不是由世界上的人工智能销售人员赞助的超级工具,而是最有可能在短期内取得成功的工具。

识别下方二维码加入情报学院知识社群,

内有4000+情报专业资料可供随时下载,

成就您的宝贵资料库。

往期推荐

全球视野:2023年风险预测报告合集

2023 年的主要风险

【情报课堂】使用在线研究方法调查一个人的人、地点和时间(干货)

【资料上新】情报学院知识星球内容更新(2023.1.1-1.7)

2023 年需要注意的 6 个关键供应链风险以及如何为这些风险做好准备

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存