El análisis de la inteligencia está plagado de muchas de las trampas cognitivas que también se encuentran en otras disciplinas. El primer estudio sistemático "Psicología del análisis de la inteligencia" que se centra en las trampas específicas que se encuentran entre un analista de inteligencia y el pensamiento claro fue realizado por Dick Heuer en 1999. [1] Según Heuer, estas "trampas cognitivas para el análisis de la inteligencia" pueden tener sus raíces ya sea en la cultura organizacional del analista o en su propia personalidad.
Tipos
Imágenes de espejo
La trampa de la personalidad más común, conocida como imagen en espejo [2], es la suposición de los analistas de que las personas estudiadas piensan como los propios analistas. Una variación importante consiste en confundir los sujetos reales con la información o las imágenes que uno tiene sobre ellos, como el tipo de manzana que uno come y las ideas y problemas que puede plantear. Plantea un dilema para el método científico en general, ya que la ciencia usa la información y la teoría para representar sistemas naturales complejos como si las construcciones teóricas pudieran controlar procesos naturales indefinibles. La incapacidad para distinguir sujetos de lo que uno está pensando en ellos también se estudia bajo el tema de la fijación funcional , estudiado primero en psicología Gestalt y en relación con el problema sujeto-objeto.
Los analistas experimentados pueden reconocer que han sido víctimas de la imagen en espejo si descubren que no están dispuestos a examinar variantes de lo que consideran más razonable a la luz de su marco de referencia personal. Los analistas menos perceptivos afectados por esta trampa pueden considerar las objeciones legítimas como un ataque personal, en lugar de mirar más allá del ego a los méritos de la pregunta. La revisión por pares (especialmente por parte de personas de diferentes antecedentes) puede ser una sabia salvaguarda. La cultura organizacional también puede crear trampas que hacen que los analistas individuales no estén dispuestos a desafiar a expertos reconocidos en el grupo.
Fijación de objetivo
Otra trampa, la fijación de objetivos , tiene una analogía en la aviación: ocurre cuando los pilotos se concentran tanto en lanzar sus municiones que pierden de vista el panorama general y chocan contra el objetivo. Esta es una tendencia humana más básica de lo que muchos creen. Los analistas pueden fijarse en una hipótesis, mirando solo evidencia que sea consistente con sus ideas preconcebidas e ignorando otros puntos de vista relevantes. El deseo de un cierre rápido es otra forma de fijación de ideas.
"La familiaridad con los métodos terroristas, los repetidos ataques contra las instalaciones estadounidenses en el extranjero, combinados con los indicios de que el territorio continental de los Estados Unidos estaba en la parte superior de la lista de objetivos terroristas podrían habernos alertado de que estábamos en peligro de un ataque significativo. Y, sin embargo, por razones esas Quienes estudien fallas de inteligencia encontrarán familiar, el 11 de septiembre encaja mucho en la norma de sorpresa causada por una falla en la advertencia de inteligencia ". [3] El colapso ocurrió, en parte, porque había un intercambio de información deficiente entre los analistas (en diferentes oficinas del FBI, por ejemplo). A nivel conceptual, la inteligencia estadounidense sabía que las acciones de Al Qaeda casi siempre involucran múltiples ataques casi simultáneos; sin embargo, el FBI no asimiló información fragmentada sobre el comportamiento extraño de los estudiantes extranjeros de entrenamiento de vuelo en este contexto.
El día de los secuestros (bajo una tremenda presión de tiempo), ningún analista asoció los múltiples secuestros con la firma de múltiples ataques de al-Qaeda . El hecho de no concebir que pudiera ocurrir un ataque mayor dentro de los Estados Unidos dejó al país desprevenido. Por ejemplo, las irregularidades detectadas por la Administración Federal de Aviación y el Comando de Defensa Aérea de América del Norte no fluyeron hacia un centro donde los analistas pudieran consolidar esta información e (idealmente) cotejarla con informes anteriores de comportamiento extraño entre ciertos pilotos en entrenamiento, o la posibilidad de secuestro. aviones de pasajeros que se utilizan como armas.
Analogías inapropiadas
Las analogías inapropiadas son otra trampa cognitiva. Aunque las analogías pueden ser extremadamente útiles, pueden volverse peligrosas cuando se fuerzan o cuando se basan en supuestos de equivalencia cultural o contextual. Evitar tales analogías es difícil cuando los analistas son simplemente inconscientes de las diferencias entre su propio contexto y el de los demás; se vuelve extremadamente difícil cuando no se dan cuenta de que faltan conocimientos importantes. Las dificultades asociadas con admitir la propia ignorancia son una barrera adicional para evitar tales trampas. Tal ignorancia puede tomar la forma de un estudio insuficiente: falta de información o comprensión fáctica; incapacidad para combinar hechos nuevos con viejos; o una simple negación de hechos contradictorios.
Cultura organizacional
Incluso los pensadores extremadamente creativos pueden tener dificultades para obtener apoyo dentro de su organización. A menudo, más preocupados por las apariencias, los gerentes pueden suprimir los conflictos que nacen de la creatividad a favor del status quo. Un caso especial de estereotipos es el de la tubería , en el que un grupo que invierte mucho en una tecnología de recolección en particular ignora información válida de otras fuentes ( especialización funcional ). Era una tendencia soviética valorar a HUMINT ( INTELIGENCIA HUMANA ), extraído del espionaje, por encima de todas las demás fuentes; el OSINT soviético se vio obligado a salir de la organización de inteligencia estatal para desarrollar el Instituto de la Academia de Ciencias Soviética de los Estados Unidos (más tarde Estados Unidos-Canadá). [4]
Otro problema de especialización puede surgir como resultado de la compartimentación de la seguridad. Un equipo analítico con acceso exclusivo a una fuente puede exagerar la importancia de esa fuente. Este puede ser un problema importante con las relaciones HUMINT a largo plazo, en las que los socios desarrollan vínculos personales.
Los grupos (como los analistas individuales) también pueden rechazar la evidencia que contradice las conclusiones previas. Cuando esto sucede, a menudo es difícil evaluar si la inclusión de ciertos analistas en el grupo fue la aplicación reflexiva de "equipos rojos" deliberadamente contrarios, o la inserción politizada de ideólogos para militar por una determinada política. La monopolización del flujo de información (causada por este último) también se ha denominado "estufa", por analogía con las disciplinas de recopilación de inteligencia.
La "otra cultura"
Hay muchos niveles en los que uno puede malinterpretar otra cultura, ya sea la de una organización o un país. Una trampa que se encuentra con frecuencia es la hipótesis del actor racional , que atribuye un comportamiento racional al otro lado, de acuerdo con una definición de racionalidad de la propia cultura.
El antropólogo social Edward T. Hall ilustró uno de esos conflictos [5] con un ejemplo del suroeste de Estados Unidos. Los conductores "anglo" se enfurecieron cuando la policía de tránsito "hispana" los citaría por superar el límite de velocidad a 1 mi / h, aunque un juez hispano luego desestimaría el cargo. Los conductores "hispanos", por otro lado, estaban convencidos de que los jueces "anglos" eran injustos porque no desestimarían los cargos debido a circunstancias atenuantes.
Ambas culturas fueron racionales con respecto a la aplicación de la ley y la adjudicación de cargos; de hecho, ambos creían que uno de los dos debía ser flexible y el otro debía ser formal. Sin embargo, en la cultura anglosajona, la policía tenía discreción con respecto a la emisión de multas por exceso de velocidad, y se esperaba que el tribunal cumpliera con la letra de la ley. En la cultura hispana, se esperaba que la policía fuera estricta, pero los tribunales equilibrarían la situación. Hubo un malentendido fundamental; ambos lados eran etnocéntricos, y ambos asumieron incorrectamente que la otra cultura era una imagen especular de sí misma. En ese ejemplo, la negación de la racionalidad fue el resultado en ambas culturas, sin embargo, cada una actuaba racionalmente dentro de su propio conjunto de valores.
En una entrevista posterior, Hall habló ampliamente sobre la comunicación intercultural. [6] Resumió años de estudio con esta afirmación: "Pasé años tratando de averiguar cómo seleccionar personas para ir al extranjero. Este es el secreto. Tienes que saber cómo hacer un amigo. ¡Y eso es todo!"
Para hacer un amigo, uno tiene que entender la cultura del amigo potencial, la propia cultura y cómo las cosas que son racionales en uno pueden no traducirse en el otro. Las preguntas clave son:
- ¿Que es cultura?
- ¿Cómo es un individuo único dentro de una cultura?
Hall afirmó:
Si podemos alejarnos de los paradigmas teóricos y centrarnos más en lo que realmente está pasando con la gente, lo estaremos haciendo bien. Tengo dos modelos que usé originalmente. Uno es el modelo lingüístico, es decir, lingüística descriptiva. Y el otro es el comportamiento animal. Ambos implican prestar mucha atención a lo que está sucediendo justo debajo de nuestras narices. No hay forma de obtener respuestas a menos que se sumerja en una situación y preste mucha atención. A partir de esto, se experimenta la validez e integridad de los patrones. En otras palabras, el patrón puede vivir y convertirse en parte de ti.
Lo principal que marca mi metodología es que realmente me uso a mí mismo como control. Me presto mucha atención a mí mismo, a mis sentimientos porque entonces tengo una base. Y no es intelectual.
El sesgo de proporcionalidad supone que las cosas pequeñas en una cultura son pequeñas en todas las culturas. En realidad, las culturas priorizan de manera diferente. En la cultura occidental (especialmente del norte de Europa), los horarios son importantes y llegar tarde puede ser una gran descortesía. Esperar el turno de uno es la norma cultural, y no hacer cola es una falla cultural. El "asesinato por honor" parece extraño en algunas culturas, pero es una parte aceptada de otras.
Sin embargo, incluso dentro de una cultura, los individuos siguen siendo individuales. La presunción de acción unitaria por parte de las organizaciones es otra trampa. En la cultura japonesa, las líneas de autoridad son muy claras, pero la persona mayor también buscará el consenso. Los negociadores estadounidenses pueden presionar para que se tomen decisiones rápidas, pero los japoneses primero deben construir un consenso; una vez que existe, pueden ejecutarlo más rápido que los estadounidenses.
El "otro lado" es diferente
El país (u organización) del analista no es idéntico al de su oponente. Un error es reflejar la oposición, asumiendo que actuará de la misma manera que lo haría el país y la cultura de uno bajo las mismas circunstancias. "A los planificadores estadounidenses de 1941 les parecía inconcebible que los japoneses fueran tan tontos al atacar a una potencia cuyos recursos superaban tanto a los de Japón, garantizando virtualmente la derrota". [3]
De la misma manera, ningún analista de la protección de la fuerza de la Armada de los EE. UU. Concibió que un destructor de la clase Arleigh Burke como el USS Cole fuera atacado con un pequeño bote suicida, muy parecido a los que los japoneses planeaban usar ampliamente contra las fuerzas de invasión durante la Segunda Guerra Mundial.
El "otro lado" hace diferentes supuestos tecnológicos
El marco cultural de un oponente afecta su enfoque de la tecnología. Eso complica la tarea de los propios analistas de evaluar los recursos del oponente, cómo se pueden usar y definir los objetivos de inteligencia en consecuencia. La creación de imágenes en espejo, comprometiéndose con un conjunto de supuestos comunes en lugar de desafiar esos supuestos, ha figurado en numerosos fallos de inteligencia.
En el teatro del Pacífico de la Segunda Guerra Mundial , los japoneses parecían creer que su lenguaje era tan complejo que incluso si sus criptosistemas como la máquina de cifrado tipo B (código púrpura) estaban rotos, los forasteros no entenderían realmente el contenido. Eso no era estrictamente cierto, pero era suficiente que hubiera casos en los que incluso los destinatarios previstos no comprendieran claramente la intención del autor. [ cita requerida ]
Por otro lado, la Marina de los EE. UU. Asumió que los barcos anclados en las aguas poco profundas de Pearl Harbor estaban a salvo de un ataque con torpedos a pesar de que en 1940, en la Batalla de Taranto , los británicos habían realizado exitosos ataques con torpedos en aguas poco profundas contra buques de guerra italianos en el puerto. .
Incluso si los servicios de inteligencia hubieran atribuido a los conspiradores de los ataques del 11 de septiembre de 2001 la capacidad organizativa necesaria para secuestrar cuatro aviones de pasajeros simultáneamente, nadie hubiera sospechado que el arma preferida de los secuestradores sería el cortador de cajas. [3]
Del mismo modo, la Marina de los EE. UU. Subestimó el peligro de los botes suicidas en el puerto y estableció reglas de enfrentamiento que permitían que un bote no identificado navegara hacia el USS Cole sin ser advertido o disparado. Un destructor clase Burke es uno de los buques de guerra [ cita requerida ] más poderosos jamás construidos, pero las políticas de seguridad de Estados Unidos no protegieron al USS Cole atracado . [3]
El "otro lado" no toma decisiones como tú
La creación de imágenes en espejo puede ser un problema importante para los responsables de la formulación de políticas y los analistas. Durante la guerra de Vietnam , Lyndon B. Johnson y Robert S. McNamara asumieron que Ho Chi Minh reaccionaría a las situaciones de la misma manera que ellos. De manera similar, en el período previo a la Guerra del Golfo , hubo un grave malentendido, independiente de la manipulación de inteligencia por motivos políticos, de que Saddam Hussein vería la situación tanto en Kuwait como en el Departamento de Estado y la Casa Blanca.
Los países opuestos no son monolíticos, ni siquiera dentro de sus gobiernos. Puede haber competencia burocrática, que se asocia con diferentes ideas. Algunos dictadores, como Hitler y Stalin, eran conocidos por crear disensiones internas, de modo que solo el líder tenía el control total. Un tema actual, que los analistas entienden, pero que los políticos no pueden o pueden querer explotar jugando con los temores internos, es la estructura política y de poder real de Irán ; no se debe equiparar el poder del presidente de Irán con el del presidente de los Estados Unidos.
Los oponentes no siempre son racionales. Pueden tener una mayor tolerancia al riesgo que el propio país. Mantener la ilusión de una amenaza de ADM parece haber sido una de las estrategias de supervivencia de Saddam Hussein. Volviendo al ejemplo iraní, una declaración aparentemente irracional del presidente iraní Mahmoud Ahmadinejad no tendría el peso de una declaración similar del líder supremo Ali Khamenei . Los analistas a veces asumen que el oponente es totalmente sabio y conoce todas las debilidades del otro lado. A pesar de ese peligro, es poco probable que los oponentes actúen de acuerdo con el mejor de los casos; pueden adoptar el enfoque del peor de los casos ante cuál es más vulnerable.
El "otro lado" puede estar tratando de confundirte
Los analistas deben formar hipótesis, pero también deben estar preparados para reexaminarlas repetidamente a la luz de nueva información en lugar de buscar evidencia que respalde su teoría preferida. Deben recordar que el enemigo puede estar engañándolos deliberadamente con información que le parece plausible. Donald Bacon observó que "las historias de engaño más exitosas eran aparentemente tan razonables como la verdad. El engaño estratégico aliado, así como el engaño soviético en apoyo de las operaciones en Stalingrado, Kursk y la ofensiva de verano de 1944, todos explotaron las creencias preexistentes del liderazgo alemán y fueron, por lo tanto, increíblemente efectivos ". [7] Las teorías que Hitler pensaba que eran inverosímiles no fueron aceptadas. El personal de engaño occidental alternaba engaños "ambiguos" y "engañosos"; el primero pretendía simplemente confundir a los analistas y el segundo hacer especialmente probable una alternativa falsa.
De todos los ejércitos modernos, los rusos tratan el engaño estratégico (o, en su palabra, maskirovka , que va más allá de la frase en inglés para incluir el engaño, la seguridad operativa y el ocultamiento) como parte integral de toda planificación. Están involucrados los niveles más altos de mando. [8]
Bacon escribió además:
La batalla de Kursk fue también un ejemplo de eficaz maskirovka soviética. Mientras los alemanes se preparaban para su ofensiva de Kursk, los soviéticos crearon una historia de que tenían la intención de realizar solo operaciones defensivas en Kursk. La realidad era que los soviéticos planearon una gran contraofensiva en Kursk una vez que frenaron el ataque alemán ... La inteligencia alemana para el Frente Ruso asumió que los soviéticos llevarían a cabo solo ataques "locales" alrededor de Kursk para "ganar" un mejor lugar de partida para el ofensiva de invierno.
El contraataque del Frente de la Estepa sorprendió a los alemanes.
El oponente puede intentar sobrecargar sus capacidades analíticas [9] como táctica para quienes preparan el presupuesto de inteligencia y para las agencias cuya vía rápida hacia la promoción está en la recopilación de datos; el propio bando puede producir tantos datos en bruto que el analista se sienta abrumado, incluso sin la ayuda del enemigo.
Ver también
- Sección de control de Londres
Referencias
- ^ Heuer, Richards J., Jr. (1999). "Capítulo 2. Percepción: ¿Por qué no podemos ver lo que hay que ver?" . Psicología del análisis de la inteligencia . Personal de Historia, Centro de Estudios de Inteligencia, Agencia Central de Inteligencia . Consultado el 29 de octubre de 2007 .CS1 maint: varios nombres: lista de autores ( enlace )
- ^ Lauren Witlin (invierno-primavera de 2008). "Nota importante: la formación de imágenes en espejo y sus peligros" (extracto) . Revisión SAIS . Prensa de la Universidad Johns Hopkins. 28 (1): 89–90. doi : 10.1353 / sais.2008.0024 . Consultado el 28 de marzo de 2013 .
- ^ a b c d Porche, Douglas; James J. Wirtz (septiembre de 2002). "Sorpresa e inteligencia fallida" . Perspectivas estratégicas . Escuela de Posgrado Naval de Estados Unidos. Yo (7).
- ^ "El Amerikanisti" . Tiempo . 24 de julio de 1972 . Consultado el 28 de octubre de 2007 .
- ^ Hall, Edward T. (1973). El lenguaje silencioso . Ancla. ISBN 0-385-05549-8.
- ^ Sorrells, Kathryn (verano de 1998). "Dones de sabiduría: una entrevista con el Dr. Edward T. Hall" . The Edge: la revista electrónica de relaciones interculturales . Consultado el 28 de octubre de 2007 .
- ^ Bacon, Donald J. (diciembre de 1998). "Engaño de la Segunda Guerra Mundial: lecciones aprendidas para el planificador conjunto de hoy, Wright Flyer Paper No. 5" (PDF) . (EE. UU.) Escuela de Estado Mayor y Comando Aéreo . Consultado el 24 de octubre de 2007 .
- ^ Smith, Charles L. (primavera de 1988). "Maskirovko soviético". Diario del poderío aéreo .
- ^ Luttwak, Edward (1997). Golpe de Estado: un manual práctico . Prensa de la Universidad de Harvard. ISBN 0-674-17547-6.