查看原文
其他

情报分析的认知陷阱

HYNE 情报分析师 2022-07-18



位于马里兰州米德堡的美国国家安全局国家密码博物馆展出的一台紫色机器的碎片。该机器碎片底部的牌匾上写着。"'紫色'这是著名的日本外交密码机现存的三块碎片中最大的一块。它是在1945年柏林的日本大使馆的残骸中找到的"。


基地组织自杀式袭击后的科尔号航空母舰


情报分析受到许多在其他学科中也遇到的认知陷阱的困扰。迪克-豪雅(Dick Heuer)首次系统地研究了在情报分析员和清晰思维之间的具体陷阱。[1] 豪雅认为,这些陷阱可能源于分析员的组织文化或他或她自己的个性。


类型


最常见的人格陷阱,被称为 "镜像成像"[2],是分析者假设被研究者的想法与分析者自己一样。一个重要的变种是将实际的研究对象与自己关于他们的信息或形象相混淆,如一个人吃的苹果的种类以及它可能引发的想法和问题。这给一般的科学方法带来了困境,因为科学使用信息和理论来表示复杂的自然系统,好像理论构造可能控制着无法定义的自然过程。无法将主体与人们对它们的思考区分开来,这也是在功能固定性的主题下研究的,首先在格式塔心理学中研究,并与主客体问题有关。

如果有经验的分析家发现他们不愿意根据他们个人的参考框架来检查他们认为最合理的变体,那么他们可能会认识到他们已经沦为镜像的猎物。受这种陷阱影响的感知力较差的分析家可能会把合法的反对意见视为人身攻击,而不是超越自我去看问题的优劣。同行评审(尤其是来自不同背景的人)可以是一个明智的保障。组织文化也会产生陷阱,使个别分析员不愿意挑战团体中公认的专家。

另一个陷阱,即目标固定,在航空领域也有类似的情况:当飞行员一心想着投递他们的弹药时,就会出现这种情况,以至于他们忽略了大局,而撞上目标。这是一个比许多人意识到的更基本的人类倾向。分析师可能会固定在一个假设上,只看与他们的预想一致的证据,而忽略其他相关的观点。对快速结束的渴望是想法固定的另一种形式。

"对恐怖分子方法的熟悉,对美国海外设施的反复袭击,加上有迹象表明美国大陆处于恐怖分子目标名单的首位,这些都可能提醒我们,我们正处于重大袭击的危险中。然而,由于那些研究情报失败的人都会觉得很熟悉的原因,9/11事件在很大程度上符合情报预警崩溃所造成的意外的标准。"[3]这种崩溃的发生,部分原因是分析人员之间(例如在不同的联邦调查局办公室)的信息共享不畅。在概念层面上,美国情报部门知道基地组织的行动几乎总是涉及多次、近乎同时的攻击;然而,联邦调查局并没有将关于行为古怪的外国飞行培训学生的零星信息纳入这一背景。

在劫持事件发生的当天(在巨大的时间压力下),没有任何分析家将多起劫持事件与基地组织的多重攻击特征联系起来。没有想到在美国境内可能发生重大袭击,使美国毫无准备。例如,联邦航空管理局和北美防空司令部发现的不正常现象没有流入一个中心,分析人员可以整合这些信息,并(最好)将其与先前关于某些飞行员学员的奇怪行为的报告,或被劫持的客机被用作武器的可能性相比较。

不恰当的类比是另一个认知陷阱。尽管类比可能非常有用,但当它们被强迫时,或者当它们是基于文化或背景的假设时,就会变得危险。当分析者仅仅是没有意识到他们自己的环境和别人的环境之间的差异时,避免这样的类比是很困难的;当他们没有意识到重要的知识被遗漏时,这就变得非常困难。与承认自己的无知有关的困难是避免这种陷阱的另一个障碍。这种无知的形式可以是研究不足:缺乏事实信息或理解;无法将新的事实与旧的事实结合起来;或者简单地否认相互冲突的事实。


组织文化

即使是极富创造性的思想家也可能发现在他们的组织内难以获得支持。通常情况下,管理者更关心的是表面现象,他们可能会压制因创造力而产生的冲突,而倾向于现状。刻板印象的一个特例是炉火纯青,即一个严重投资于某项收集技术的小组忽视了来自其他来源的有效信息(职能专业化)。这是苏联的一种倾向,重视从间谍活动中收集的HUMINT(人类情报),高于所有其他来源;苏联的OSINT在发展苏联科学院的美国(后来的美国-加拿大)研究所时,被迫到国家情报组织之外去了[4] 。

另一个专业化问题可能来自于安全区隔的结果。一个有机会接触到某个来源的分析小组可能会过分强调该来源的重要性。这可能是长期HUMINT关系中的一个主要问题,在这种关系中,伙伴们形成了个人联系。

小组(如个人分析员)也可能拒绝与先前结论相矛盾的证据。当这种情况发生时,往往很难评估将某些分析员纳入小组是否是故意反其道而行之的 "红队 "的深思熟虑的应用,或者是政治化的插入意识形态者来推动某种政策。通过与情报收集学科的类比,信息流的垄断(由后者引起)也被称为 "隔墙有耳"。


"其他文化"

人们可以在很多层面上误解另一种文化,无论是一个组织还是一个国家的文化。一个经常遇到的陷阱是 "理性角色假设",它将理性行为归于对方--根据自己文化中的理性定义。

社会人类学家Edward T. Hall用美国西南部的一个例子说明了这种冲突[5]。当 "西班牙裔 "的交通警察因他们超过限速一英里而对他们进行处罚时,"盎格鲁 "的司机就会被激怒,尽管西班牙裔的法官后来会驳回指控。另一方面,"西班牙裔 "司机相信,"盎格鲁 "法官是不公平的,因为他们不会因为情有可原的情况而撤销指控。

两种文化对执法和指控的裁决都很理性;事实上,两者都认为其中一个必须是灵活的,另一个必须是正式的。然而,在盎格鲁文化中,警察在签发超速罚单方面有自由裁量权,而法院则被期望保持在法律条文的范围内。在西班牙文化中,警察应该是严格的,但法院会平衡局势。这里面有一个根本性的误解;双方都是民族中心主义,都错误地认为另一种文化是自己的镜像。在这个例子中,否认理性是两种文化的结果,但每种文化都是在自己的价值体系中理性行事。

在随后的采访中,Hall广泛谈论了跨文化交流。[6]他用一句话总结了多年的研究:"我花了多年时间试图弄清楚如何选择去海外的人。这就是秘诀。你必须知道如何交朋友。就是这样!"

要想交朋友,就必须了解潜在朋友的文化和自己的文化,以及在一个文化中合理的事情可能无法转化到另一个文化中。关键问题是。

什么是文化?
一个人在一种文化中是怎样的独特?


霍尔断言:


如果我们能摆脱理论范式,更多关注人们的真实情况,我们就会做得很好。我有两个模型,我最初使用过。一个是语言学模式,也就是描述性语言学。而另一个则是动物行为学。两者都涉及密切关注在我们眼皮底下发生的事情。除非你沉浸在某种情况下并密切关注,否则没有办法得到答案。从这一点上,可以体验到模式的有效性和完整性。换句话说,模式可以活下来,成为你的一部分。


标志着我的方法论的主要内容是,我确实把自己作为一个控制对象。我非常关注自己,关注自己的感受,因为这样我就有了一个基础。而且它不是智力上的。


比例性偏见假定一种文化中的小事在每一种文化中都是小事。在现实中,各种文化的优先次序是不同的。在西方(尤其是北欧)文化中,时间安排很重要;迟到可能是一种重大的不礼貌行为。等待轮到自己是文化的常态,不排队是一种文化上的失败。"荣誉谋杀 "在某些文化中似乎很奇怪,但在其他文化中却是被接受的一部分。

然而,即使在一种文化中,个人仍然是个人。假设组织的统一行动是另一个陷阱。在日本文化中,权力的界限是非常明确的,但高级的个人也会寻求共识。美国的谈判者可能会推动快速决策,但日本人需要首先建立共识;一旦有了共识,他们可能会比美国人执行得更快。


"另一方 "是不同的

分析师的国家(或组织)与他们的对手不一样。一个错误是将对手照搬过来,假设它的行为与你的国家和文化在相同情况下的行为相同。"在1941年,美国的计划人员似乎无法想象,日本人会如此愚蠢地攻击一个资源远远超过日本的大国,从而几乎保证了失败"[3] 。

同样,美国海军部队保护方面的分析家也没有想到像科尔号这样的阿利-伯克级驱逐舰会受到小型自杀艇的攻击--这种船很像日本人计划在二战期间对入侵部队广泛使用的那种。


"另一方 "做出不同的技术假设

对手的文化框架会影响其对技术的态度。这使自己的分析员在评估对手的资源、如何使用这些资源以及相应地确定情报目标方面的任务变得复杂。镜像--致力于一套共同的假设,而不是挑战这些假设--在许多情报工作的失败中都出现过。

在第二次世界大战的太平洋战区,日本人似乎认为他们的语言非常复杂,即使他们的密码系统(如PURPLE)被破解,外人也不会真正理解其内容。这并不是严格意义上的事实,但它足以让一些情况下,即使是预定的接收者也不能清楚地理解作者的意图。

另一方面,美国海军认为停泊在珍珠港浅水区的船只不会受到鱼雷攻击,尽管英国人在1940年的塔兰托之战中已经证明了浅水区鱼雷攻击的可行性。

即使情报部门认为9/11事件的阴谋者具有同时劫持四架客机的必要组织能力,也没有人会怀疑劫持者的首选武器会是切纸机。

同样,美国海军低估了自杀式船只在港口的危险性,并制定了交战规则,允许不明身份的船只驶入科尔号,而不被警告或置于火力之下。阿利-伯克级驱逐舰是有史以来最强大的军舰之一,但美国的安全政策却没有保护停靠在码头的科尔号[3] 。


"对方 "不会像你一样做决定

对政策制定者以及分析家来说,镜像可能是一个大问题。在越南战争期间,约翰逊和麦克纳马拉认为胡志明会以与他们自己相同的方式对局势做出反应。同样,在海湾战争前夕,人们对萨达姆-侯赛因会像国务院和白宫那样看待科威特局势有严重的误解,这与出于政治动机的情报操纵无关。

对立的国家不是铁板一块,即使在其政府内部也是如此。可能会有官僚主义的竞争,这就会与不同的想法联系起来。一些独裁者(如希特勒和斯大林)以制造内部分歧而闻名,因此,只有领导人才能完全控制。目前的一个问题是伊朗的实际政治和权力结构,分析家们了解这个问题,但政治家们可能不了解(或者想通过利用国内的恐惧来加以利用);人们不能把伊朗总统的权力等同于美国总统的权力。

反对者并不总是理性的。他们可能比自己的国家有更大的风险容忍度。保持大规模毁灭性武器威胁的假象似乎是萨达姆-侯赛因的生存策略之一。再次回到伊朗的例子,马哈茂德-艾哈迈迪-内贾德总统的一个明显非理性的声明不会像最高领袖阿里-哈梅内伊的类似声明那样有分量。分析家们有时会认为,对手是全知全能的,知道你方的所有弱点。尽管有这种危险,但对手不太可能按照一个人的最佳方案行事;他们可能会采取最坏的情况,即一个人最容易受到影响。


"另一方 "可能试图迷惑你

分析员的工作是形成假设;但是,他们也应该准备好根据新的信息反复审查这些假设,而不是寻找支持一种受青睐的理论的证据。他们必须记住,敌人可能是故意用在敌人看来合理的信息来欺骗他们。唐纳德-培根指出,"最成功的欺骗故事显然和事实一样合理。盟军的战略欺骗,以及苏联支持斯大林格勒、库尔斯克和1944年夏季攻势行动的欺骗,都利用了德国领导层预先存在的信念,因此,效果惊人。"[7]希特勒认为不靠谱的理论不被接受。西方的欺骗人员交替使用 "模棱两可 "和 "误导性 "的欺骗手段;前者只是为了迷惑分析家,而后者则是为了让一种错误的选择变得特别有可能。

在所有的现代军队中,俄罗斯人把战略欺骗(或者用他们的话说是掩饰;这超出了我们的说法,包括欺骗、作战安全和隐蔽)作为所有计划的一个组成部分。最高级别的指挥部也参与其中。


培根进一步写道


库尔斯克战役也是苏军有效掩饰的一个例子。当德国人在为他们的库尔斯克攻势做准备时,苏联人制造了一个故事,说他们打算在库尔斯克只进行防御性作战。现实情况是,苏联人一旦阻挡了德国人的进攻,就计划在库尔斯克进行大规模反攻。.... 俄罗斯前线的德国情报部门认为,苏联人只会在库尔斯克周围进行 "局部 "攻击,以便 "为冬季攻势获得更好的跳板"。


草原前线的反击让德军目瞪口呆。

对手可能会试图让自己的分析能力超载[9],这对那些编制情报预算的人来说是一种赌博,对那些晋升的快车道在数据收集方面的机构来说也是如此;自己一方可能会产生大量的原始数据,即使没有敌人的帮助,分析人员也会不知所措。



参考

  1.  Heuer, Richards J. Jr. (1999). "Psychology of Intelligence Analysis. Chapter 2. Perception: Why Can't We See What Is There To Be Seen?". History Staff, Center for the Study of Intelligence, Central Intelligence Agency. Retrieved 2007-10-29.<templatestyles src="Module:Citation/CS1/styles.css"></templatestyles>

  2. Jump up↑ Lauren Witlin (Winter–Spring 2008). "Of Note: Mirror-Imaging and Its Dangers" (excerpt). SAIS Review. The Johns Hopkins University Press. 28 (1): 89–90. doi:10.1353/sais.2008.0024. Retrieved 2013-03-28.<templatestyles src="Module:Citation/CS1/styles.css"></templatestyles>

  3. ↑ Jump up to:3.0 3.1 3.2 3.3 Porch, Douglas; James J. Wirtz (September 2002). "Surprise and Intelligence Failure". Strategic Insights. US Naval Postgraduate School. I (7).<templatestyles src="Module:Citation/CS1/styles.css"></templatestyles>

  4. Jump up↑ "The Amerikanisti". Time. July 24, 1972. Retrieved 2007-10-28.<templatestyles src="Module:Citation/CS1/styles.css"></templatestyles>

  5. Jump up↑ Hall, Edward T. (1973). The Silent Language. Anchor. ISBN 0-385-05549-8.<templatestyles src="Module:Citation/CS1/styles.css"></templatestyles>

  6. Jump up↑ Sorrells, Kathryn (Summer 1998). "Gifts of Wisdom: An Interview with Dr. Edward T. Hall". The Edge: the E-Journal of Intercultural Relations. Retrieved 2007-10-28.<templatestyles src="Module:Citation/CS1/styles.css"></templatestyles>

  7. Jump up↑ Bacon, Donald J. (December 1998). "Second World War Deception: Lessons Learned for Today's Joint Planner, Wright Flyer Paper No. 5" (PDF). (US) Air Command and Staff College. Retrieved 2007-10-24.<templatestyles src="Module:Citation/CS1/styles.css"></templatestyles>

  8. Jump up↑ Smith, Charles L. (Spring 1988). "Soviet Maskirovko". Airpower Journal.<templatestyles src="Module:Citation/CS1/styles.css"></templatestyles>

  9. Jump up↑ Luttwak, Edward (1997). Coup D'Etat: A Practical Handbook. Harvard University Press. ISBN 0-674-17547-6.<templatestyles src="Module:Citation/CS1/styles.css"></templatestyles>


本期编辑:HYNE
如有侵权,请联系管理员删除



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存