El análisis bayesiano como piedra angular de la inteligencia de alertas estratégicas

JUAN PABLO SOMIEDO

Universidad Autónoma de Madrid, España

 

The Bayesian Analysis as an Angular Stone of the Intelligence of Strategic Alerts

Resumen: El presente artículo es un repaso de las aportaciones de la estadística bayesiana al análisis de inteligencia desde una perspectiva histórica y metodológica. Después de una breve introducción, se describen los fundamentos del análisis bayesiano y se repasan brevemente los principales ítems del recorrido histórico del análisis bayesiano en la Central Intelligence Agency (CIA) de EE.UU. a partir de material desclasificado. Finalmente se explica la mecánica del análisis bayesiano y sus aplicaciones actuales al análisis de inteligencia

Palabras clave: Análisis bayesiano, Análisis de inteligencia, Metodología, Estadística, CIA, Análisis de Hipótesis en Competencia

Abstract: This article intends to be a review to the contributions of Bayesian statistics to the intelligence analysis from a historical and methodological perspective. After a brief introduction, the basics of the Bayesian analysis are described and the main items of the historical route of the Bayesian analysis in the Central Intelligence Agency (CIA) of the USA are briefly reviewed from declassified material. Finally, the mechanics of Bayesian analysis and its current applications to intelligence analysis are explained.

Keywords: Bayesian analysis, Intelligence analysis, Methodology, Statistics, CIA, Competing Hypothesis Analysis

Recibido: 5 de noviembre de 2017

Aceptado: 29 de enero de 2018

Para citar este artículo: Juan Pablo Somiedo, “El análisis bayesiano como piedra angular de la inteligencia de alertas estratégicas”, Revista de Estudios en Seguridad Internacional, Vol. 4, No. 1 (2018), pp. 161-176. DOI: http://dx.doi.org/10.18847/1.7.10

 

A bayesian is one who, vaguely expecting a horse, and catching a glimpse of a donkey, strongly believes he has seen a mule”

                                                            Anti-Bayesian joke attributed to Karl Pearson

Introducción

Durante mucho tiempo la formación en materia de metodología de análisis en inteligencia estratégica en los cursos y postgrados universitarios españoles ha estado focalizada, en gran medida, en las denominadas SAT, acrónimo en inglés de Structured Analytic Techniques, popularizadas por el manual con el mismo título de los Pherson, relegando a un segundo plano el estudio de otras técnicas de carácter más cuantitativo. De hecho, son los mismos autores los que reconocen, en las páginas iniciales de su libro, la existencia de cuatro categorías de métodos analíticos, dos de los cuales de carácter cuantitativo: métodos cuantitativos usando datos empíricos y métodos cuantitativos utilizando datos generados por expertos (Heuer y Pherson, 2015: 48). Sin embargo, estos métodos no son ni explicados ni tratados en su manual[1].

Por otro lado, una de las pocas técnicas con cierto carácter cuantitativo (nos referimos a que metriza o cuantifica información cualitativa en un marco bayesiano), como es el Analysis of Competing Hypotheses, conocido bajo el acrónimo de ACH, adolece, en la obra de los Pherson, de una falta de explicación epistémica rigurosa. De hecho, es el mismo Richard Heuer quien, en la descripción técnica de Palo Alto que se realizó para la versión 1.1 del software, afirma: “Existe un riesgo sustancial al asignar nuestra confianza a una caja negra cuyo funcionamiento interno no es completamente entendido. Dado que los usuarios pueden tener diferentes orígenes (matemáticos o no), lo que es comprensible para un usuario puede no ser tan comprensible para otro” (Heuer, 2005: 4). Uno de los objetivos de este trabajo es introducir al lector en el conocimiento del sustrato lógico y epistémico de la técnica dentro del marco bayesiano.

Desgraciadamente, como he afirmado al comienzo del artículo, en España nos hemos focalizado demasiado (y en gran medida muchos programas siguen haciéndolo) en las SAT, que, salvo excepciones como el ACH, están más orientadas al análisis cualitativo, olvidando la importancia y el peso que deberían tener en los programas formativos otras técnicas cuantitativas de referencia como la que vamos a desarrollar en este trabajo. Esto es comprensible en una disciplina que apenas comenzaba a dar sus primeros pasos en nuestro país y cuyos programas estaban aún en desarrollo, pero no lo es ahora, cuando ya tiene el recorrido y el criterio suficientes para poder distinguir con claridad el núcleo fundamental de la metodología de análisis en inteligencia.

Dentro del amplio abanico de técnicas cuantitativas empleadas en metodología de análisis en inteligencia estratégica, podemos distinguir claramente las técnicas más tradicionales como pueden ser el análisis bayesiano o la regresión lineal de otras que son más recientes como el Análisis de Riesgos Adversarios (ARA), que se aplica al modelado de escenarios en contraterrorismo[2] o el estudio de patrones espaciales y patrones de actividad[3].

A lo largo de este trabajo desarrollaremos con profusión el análisis bayesiano. Es una técnica que pertenece al grupo de las técnicas más tradicionales pero que no por ello ha dejado de ser utilizada, pues, en algunas cuestiones de inteligencia, tanto su pertinencia como sus resultados han quedado más que demostrados a lo largo del tiempo.

En honor a la verdad, el enfoque bayesiano fue olvidado en el baúl de los recuerdos durante mucho tiempo hasta que fue rescatado por unos pocos visionarios que vieron en él un potencial del que carecía el enfoque frecuentista tradicional. Desde entonces ha cosechado muchos y probados éxitos. En lo que al ámbito de Seguridad y Defensa se refiere jugó un papel relevante y destacado durante la II Guerra Mundial[4] y más tarde, como veremos en este trabajo, la CIA lo utilizó como una de sus técnicas de análisis innovadoras dentro del Directorio de Inteligencia.

Más allá de sus orígenes y posterior desarrollo, hoy en día el análisis bayesiano es un contenido de obligada referencia en la mayoría de los programas universitarios serios dedicados a formar nuevos analistas en el ámbito de inteligencia, tanto a nivel nacional como internacional[5].  

Aunque la ecuación del Teorema de Bayes es relativamente sencilla, sus resultados no son nada intuitivos porque juega con probabilidades condicionadas. Para una buena parte de los analistas, el Teorema de Bayes es difícil de aprender y aplicar. Y esto también incluye a los superiores que, frecuentemente, no terminan de creerse los resultados porque, al ser tan poco intuitivos, simplemente parecen equivocados y aparecen como un gran galimatías estadístico incomprensible. Para demostrar esta característica contraintuitiva del Teorema de Bayes bastará con ilustrar un sencillo problema tomado de Bar-Hillel y Falk (Bar-Hillel y Falk, 1982: 109):

Los Smith tienen dos bebés. Uno de ellos es una niña. ¿Cuál es la probabilidad de que el otro sea también una niña?

La respuesta más frecuente es 1/2. Pero es errónea. La teoría de los modelos mentales explica este error aduciendo que las personas interpretan que el problema pide “la probabilidad de que un bebé sea niña” y, en consecuencia, construyen los modelos:

Niño    Niña

y a partir de ahí, deducen que la probabilidad de que sea niña es de 1/2. Pero, realmente lo que el problema pide es una probabilidad condicionada: P (Las dos sean niñas/ Una es niña).

Una sencilla justificación matemática de la solución sería la siguiente:

El espacio muestral se expresaría así:

Ω  = {(niño, niño), (niño, niña), (niña, niño), (niña, niña)}

pero, al decirnos que uno de ellos es niña, quedaría así:

Ω  = {(niño, niña), (niña, niño), (niña, niña))

por tanto (admitiendo que ambos sexos son igualmente probables), tendríamos:

P (Dos niñas/ Al menos uno es niña)= 1/3.

Como observamos, es fácil caer en errores cuando lidiamos con la probabilidad condicionada debido al funcionamiento cognitivo de nuestros patrones mentales.

Pero ¿por qué resulta tan útil el análisis bayesiano en inteligencia? Sencillamente porque nos permite actualizar el grado de certeza de nuestras hipótesis actualizando continuamente nuestra información, característica ésta que le diferencia de otras muchas herramientas y técnicas de análisis y que resulta ser fundamental en el análisis de inteligencia, como analizaremos más adelante en este mismo trabajo.

Hay tres características principales que diferencian a los métodos bayesianos de otros métodos y técnicas convencionales en análisis de inteligencia. La primera es que el analista es obligado a cuantificar sus juicios en términos numéricos, algo que normalmente no suele hacer. Desde este punto de vista, el análisis bayesiano nos ayuda a cuantificar lo que Polya denominó como razonamiento plausible[6] que surge de forzar los argumentos de la lógica clásica para dar lugar a los patrones heurísticos y que guarda una estrecha relación con la lógica abductiva.

La segunda es que el analista no toma la información disponible como dada y elabora a partir de ahí sus conclusiones sobre los méritos relativos de hipótesis opuestas, más bien investiga por etapas la verdad de cada hipótesis de trabajo centrándose solo en la verosimilitud de cada nuevo elemento de evidencia para cada hipótesis de trabajo si éstas fueran ciertas. De esta forma, el analista es menos sensible a su propio ego y no se siente inclinado a reforzar posiciones previamente asentadas.

La tercera característica distintiva del método bayesiano es que el analista va construyendo sus juicios sobre las piezas de evidencia. No es como el resumen de evidencias que él tendría que hacer si tuviera que juzgar su significado para las conclusiones finales. Las matemáticas hacen ese resumen por él diciéndole: si ésta es la lectura de las evidencias individuales que tienes, ésta es la conclusión que se sigue de ellas. Las personas, generalmente, son mucho mejores evaluando una sola evidencia que construyendo inferencias a partir del cuerpo conjunto de todas las evidencias (Zlotnick, 1970: 44-45).

 

¿De qué hablamos cuando hablamos de análisis bayesiano?

La estadística bayesiana, al contrario que la estadística frecuentista que se fundamenta en la idea de cuantificar la probabilidad de un suceso a partir de la frecuencia relativa de aparición, parte de la noción de que la probabilidad representa el grado de creencia que otorgamos al suceso en cuestión. La diferencia entre ambas, pues, es una cuestión de concepto de probabilidad. Para la estadística clásica o frecuentista la probabilidad es un concepto objetivo, que se encuentra en la naturaleza, mientras que para la estadística bayesiana se encuentra en el observador, siendo así un concepto subjetivo. De este modo, en la estadística clásica solo se toma como fuente de información las muestras obtenidas, mientras en caso bayesiano, además de la muestra, también juega un papel fundamental la información previa o externa que se posee en relación a los fenómenos que se pretenden modelizar.

Para introducir al lector no iniciado por los senderos bayesianos trataremos de ir desglosando los diferentes conceptos. Sin ánimo de ser exhaustivos, dos de los conceptos más importantes son el de probabilidad inversa (estrechamente relacionado con la probabilidad condicional) y el axioma de verosimilitud.

 

Probabilidad Inversa

Este principio asevera que la probabilidad de una causa dado un efecto es distinta de la probabilidad de un efecto dada una causa. Por ejemplo, supongamos que denotamos con A el evento o suceso de que una persona es mujer y con B el suceso de que esté embarazada. Intuitivamente podemos observar que:

P(A/B) o probabilidad de que una persona sea mujer dado que está embarazada es de un 100% pues todas las personas embarazadas son mujeres. Sin embargo, la P(B/A) o probabilidad de estar embarazada dado que se es mujer, según las estadísticas es de un 2%.  Bayes encontró una relación entre estas dos probabilidades, lo cual es sumamente importante porque únicamente conociendo una de las dos probabilidades podemos llegar a conocer la otra.

Siguiendo con las probabilidades condicionadas, tenemos que:

P(A/B)=P(AᴖB)/P(B)

Es decir, la probabilidad de un suceso A dado otro suceso B es igual a la probabilidad de la intersección de ambos sucesos dividido por la probabilidad del suceso B.

Despejando en esta expresión llegamos a:

P(AᴖB)=P(A/B)*P(B)                                                          (1)

De igual forma tenemos que:

P(B/A)= P(BᴖA)/P(A

Y, por tanto:

P(BᴖA)= P(B/A)*P(A)                                                                     (2)

Como sabemos que la probabilidad de la intersección es siempre la misma, es decir, P(AᴖB)= P(BᴖA) e igualando las expresiones 1 y 2 obtenemos:

P(A/B)*P(B)=  P(B/A)*P(A) 

Y despejando en esta expresión, llegamos al resultado:

P(B/A)= P(A/B)*P(B)/P(A), que es el célebre Teorema de Bayes.

En esta expresión:

P(A) es la probabilidad total

P(B) es la probabilidad “a priori”

P(A/B) es la probabilidad condicional de un suceso A condicionado a otro sucedo dado B

P(B/A) es la probabilidad “a posteriori”

Hasta aquí la explicación más conocida y también más simple del Teorema de Bayes.

 

Axioma de verosimilitud

A partir de estos conceptos simples podemos adentrarnos ya en la forma compleja del Análisis bayesiano, es decir, la que tiene que ver con la relación entre probabilidad y verosimilitud. Dicha relación queda expresada mediante la siguiente ecuación:

Donde:

Pr(H) es la probabilidad a priori de que la hipótesis H sea cierta

Pr(H/D) es la probabilidad a posteriori de que la hipótesis H sea cierta, es decir, la probabilidad de que la hipótesis sea cierta una vez que se han observado los datos.

Pr(Datos/H) es la verosimilitud, es decir, la probabilidad de haber observado esos datos si la hipótesis H es cierta.

Pr(Datos) es la verosimilitud marginal, la probabilidad de haber observado esos datos independientemente de que la hipótesis H sea cierta o no.

De manera alternativa también podemos expresarlo a la manera de Zlotnick:

Donde[7]:

R es la probabilidad a posteriori

P es la probabilidad a priori

L es la verosimilitud

El axioma de verosimilitud surge de la combinación de la Ley de Verosimilitud y el Principio de Verosimilitud. La Ley de Verosimilitud afirma que, en el marco de un modelo estadístico, un conjunto particular de datos apoya a una hipótesis estadística mejor que a otra si la probabilidad de la primera hipótesis, sobre los datos, es superior a la probabilidad de la segunda hipótesis.

El Principio de Verosimilitud establece que la función de verosimilitud contiene toda la información relevante para la evaluación de la evidencia estadística.  Otras facetas de los datos que no tienen en cuenta la función de verosimilitud son irrelevantes para la evaluación de la fuerza de la evidencia estadística, aunque pueden ser significativos para la planificación de estudios o para el análisis de decisiones, pero están separados de la fuerza de la evidencia estadística.

El lector no iniciado entenderá mucho mejor estos conceptos cuando lea el apartado dedicado a la mecánica del análisis bayesiano.

 

La CIA y el análisis bayesiano

La aplicación del Teorema de Bayes al análisis de inteligencia no es algo novedoso. De hecho, la Central Intelligence Agency (CIA) comenzó a investigar la utilidad de este tipo de análisis como herramienta para los analistas a partir de 1967. De esas fechas son documentos tempranos de la CIA como The sino-soviet border dispute: a comparison of the conventional and bayesian methods for intelligence warning de noviembre de 1967 y Bayes Theorem in the Korean War de Julio de 1968. Poco tiempo después, en 1970, Jack Zlotnick escribió para la CIA un informe, que se convertiría en una referencia obligada, titulado Bayes theorem for intelligence analysis sobre su uso y potencialidades que hoy, ya desclasificado, puede consultarse en la web. Finalmente todos estos avances cristalizarían en un manual, el Handbook of bayesian analysis for intelligence[8], también desclasificado. Publicado en junio de 1975 por el Directorio de Inteligencia y más concretamente por la Oficina de Investigación Política, su lectura estaba reservada para las oficiales de inteligencia.

Teniendo en cuenta que a algunos lectores les puede resultar útil profundizar en estas cuestiones, repasaremos brevemente el contenido y las aportaciones de cada uno de estos documentos:

  • The sino-soviet border dispute: a comparison of the conventional and bayesian methods for intelligence warning

Este informe, clasificado en su tiempo como secreto, de apenas ocho páginas, explica y describe los resultados de un experimento que fue diseñado para probar la superioridad del método bayesiano con respecto a otros métodos de análisis convencionales. El experimento fue llevado a cabo con varios analistas de diferentes departamentos del directorio de inteligencia.

  • Bayes Theorem in the Korean War

Informe de 22 páginas clasificado en su tiempo como secreto y que hoy en día también está desclasificado. Según aparece señalado en sus primeras páginas, su finalidad es la de describir un test para determinar la aplicabilidad del cálculo de probabilidad (y más concretamente del Teorema de Bayes) al campo de la inteligencia prospectiva o predictiva. El test simula las estimaciones de inteligencia de la posible intervención de la China Comunista en la Guerra de Corea en 1950.

El informe explica cómo se simuló la situación histórica, cómo se formó el escenario de evidencias, qué hipótesis de cabecera se escogieron y cómo se desarrolló el test.

Cabe destacar el apartado final de notas técnicas que explica la mecánica del modelo y los cálculos probabilísticos empleados.

  • Bayes theorem for intelligence analysis

El documento es un “paper” académico que su autor, Jack Zlotnick, presentó en una Conferencia en Michigan el 18 de junio de 1970. A lo largo de sus nueve páginas Zlotnick desgrana los compones teóricos y metodológicos del análisis bayesiano señalando de forma nítida sus ventajas, pero también algunos de los problemas metodológicos que tienen estrecha relación como por ejemplo el tema de la evidencia causal o el de la falsa evidencia.  El mismo autor insiste en que lo contenido en ellas no tiene un “carácter oficial” pero es evidente que leyéndolas podemos hacernos una idea de cómo estaba el estado de la cuestión en la CIA en aquellas fechas y hasta qué punto el análisis bayesiano se había desarrollado. Esas páginas demuestran que la CIA ya había superado y dejado atrás la forma simple del análisis bayesiano y había comenzado a estudiar las posibilidades de su forma más avanzada, esto es, las aplicaciones al análisis de inteligencia de lo relacionado con el axioma de verosimilitud.

  • Handbook of bayesian analysis for intelligence

El manual, publicado en junio de 1975 y hoy desclasificado es muy recomendable para los analistas que quieran introducirse en este tipo de análisis. Un auténtico monográfico de 28 páginas que describe el uso general de la metodología bayesiana en la práctica, paso a paso y de forma sencilla. Lógicamente el apartado estrella es el dedicado a describir los posibles caminos para realizar los cálculos necesarios. Incluye, incluso, el código de sintaxis para ejecutar los modelos de árboles bayesianos, claro está, en unos lenguajes de computación antiguos y hoy en día en desuso como el BASIC o el APL. El ejemplo que se propone para explicar la mecánica es un caso de inteligencia geopolítica pero el mismo manual explica que la aplicación de la técnica puede ir mucho más allá de ese campo particular y puede ser adaptada con unos pocos cambios a otras áreas temáticas.

Se advierte la importancia de las llamadas “3 w” de la inteligencia, a saber:

  • ¿Cuál es la naturaleza del problema?
  • ¿Cuál es la pregunta?
  • ¿Qué datos hay disponibles o so posibles de obtener?

Además, en el proceso de inteligencia, la naturaleza del problema dicta que metodología y técnicas son apropiadas para encararlo. Y no siempre los métodos bayesianos pueden resultar ser los más apropiados.

A continuación, se describe en qué tipo de cuestiones es aconsejable utilizar el análisis bayesiano. En este sentido, Bayes es solo útil cuando la cuestión puede ser expresada con un conjunto reducido de resultados como, por ejemplo, guerra versus no guerra, desarrollo de capacidad nuclear versus desarrollo de mecanismos de paz versus no desarrollo de capacidad nuclear. De hecho, Bayes resulta inútil cuando se intenta predecir algo demasiado genérico como, por ejemplo, el futuro de las relaciones entre ambas Coreas. Para ser factible, dicha cuestión, debería ser reformulada en términos de alternativas específicas y escenarios más o menos excluyentes. También debe existir un flujo de datos e información relacionados, al menos periféricamente, con la cuestión.

El manual también refleja una serie de reflexiones sobre la conveniencia de la utilización de gráficos descriptivos en los informes finales.

 

Mecánica y aplicaciones del análisis bayesiano en el análisis de inteligencia

A primera vista, la regla de Bayes es un sencillo teorema cuyo enunciado, en román paladino, se reduce a lo siguiente: al actualizar la opinión que inicialmente teníamos sobre algo por disponer de nueva información objetiva, llegamos a un planteamiento mejor. Pero algo realmente explosivo se deriva de esta simple afirmación, a saber, el teorema de Bayes nos indica que no sólo es posible adquirir conocimiento, aunque nos falten datos o estos resulten inadecuados, sino que ese conocimiento puede obtenerse a partir de aproximaciones o incluso de la ignorancia total como punto de partida (Bertsch, 2012: 12).

Esto último tiene una conexión directa con el trabajo cotidiano en análisis de inteligencia. En otra ocasión he escrito sobre los fundamentos del análisis de inteligencia y las cuestiones epistemológicas vinculadas a éste. La tarea de análisis en inteligencia se asemeja muchas veces a intentar unir y desunir las piezas de un puzle para desvelar lo que estaba oculto (al menos de una forma primaria), pero al fin y al cabo estaba. No nos inventamos nada. No se trata, pues, de recopilar, unir y resumir la información, por muy importante que esta sea, sino de ir un paso más allá y tratar de desvelar los significados y el conocimiento que permanecía oculto (que no ocultado intencionadamente) y velado (Somiedo, 2016: 10-12).

Ante este gran reto nos encontramos ante tres dificultades. La primera es que no siempre tenemos todas las piezas del puzle y suele suceder que no encontramos mayor sentido a las que tenemos. En este sentido, podemos considerarnos como una especie de “chapuceros habilidosos” que explotan al máximo todas las posibilidades de la información disponible en cada momento para generar conocimiento.

En segundo lugar, en la metafórica bolsa donde buscamos nuestras piezas, hay además piezas de otros puzles diferentes al que queremos formar que pueden llevarnos a confusión. Todos hemos experimentado este tipo de complejidad cuando de pequeños mezclábamos las piezas de varios puzles y una pieza parecía encajar cuando realmente no era así.

La última y no por ello menos importante, es que la imagen del puzle no es una imagen fija, sino que es dinámica, va cambiando y transformándose. Imaginemos un puzle con la imagen del rostro de una niña pequeña. ¿Qué pasará con el rostro de esa niña cuando hayan transcurrido 20 años más? Cambiará. Comenzarán a aparecer las primeras arrugas fruto del paso del tiempo y la morfología del rostro irá evolucionando. Pero, si dejamos a un lado la variable "tiempo", siempre presente, también puede verse influida por otras variables. Imaginemos un trágico accidente doméstico con salpicaduras de aceite en el rostro. Hacer inteligencia puede ser, a veces, conseguir una imagen o foto fija en un determinado lugar, tiempo y circunstancia, pero otras veces significa intentar construir una película completa y esto es más laborioso y difícil.

Hasta aquí hemos descrito lo que se conoce con el nombre de complejidad en detalle, pero el análisis de inteligencia tiene, además, un tipo de complejidad dinámica. La imagen usual para explicar este tipo de complejidad es la de un tablero de ajedrez. La complejidad dinámica es aquella en la que los elementos se relacionan unos con otros de muchas formas distintas, porque cada parte puede tener diferentes estados, de modo que unas cuantas pueden combinarse en miles de formas diferentes. Resulta, pues, erróneo basar la complejidad en el número de partes. El ajedrez es un juego de complejidad dinámica, ya que con cada nuevo movimiento el tablero se transforma, pues se modifican las relaciones entre las piezas. En análisis de inteligencia el movimiento de un actor puede afectar a su vez al movimiento de otros.

Una vez que una determinada problemática o cuestión ha sido seleccionada como candidata para la utilización del análisis bayesiano, la primera etapa consiste en formular categorías que sean más o menos excluyentes que cubran las posibilidades más relevantes que envuelven el problema tratado. Cuando la formulación puede expresarse en términos dicotómicos, esto simplifica y facilita mucho las cosas. Pero a menudo habrá más de dos posibilidades o hipótesis encima de la mesa.

Aunque el análisis puede ser realizado por una única persona, dependiendo de la naturaleza más o menos interdisciplinar de la cuestión tratada, es conveniente incluir un grupo de analistas con diferentes especialidades: geopolítica, militar, económica, etc.[9] En el encuentro inicial se explicarán el formato y los procedimientos a todos los participantes. Además, se elaborará una lista de participantes donde se señalará el nombre del participante, posición, número de años de servicio, número de teléfono de la oficina y las probabilidades que asigna a cada hipótesis al comienzo del análisis.

Una vez iniciado el análisis, un analista o un pequeño grupo de analistas pueden escribir una lista de cada una de las evidencias individuales y asignarles las probabilidades. Esto puede ser revisado diaria, semanal, mensualmente o cuando aparezcan nuevas evidencias que anotar. Las probabilidades asociadas pueden ser revisadas en cualquier momento.

La tercera etapa consiste en determinar cuánto debe prolongarse el análisis en el tiempo y cuantos informes y con qué cadencia será necesario realizar.

A continuación, expondremos de una manera sencilla y concisa la mecánica del análisis bayesiano en inteligencia teniendo como base los contenidos del manual de la CIA ya citado.

El manual señala que hay dos posibles caminos: uno básico y otro simplificado. Ambos se basan en las mismas relaciones matemáticas, pero se diferencian en que uno trabaja con ratios de probabilidad y el otro con probabilidades directamente. El método simplificado solo puede trabajar con cuestiones dicotómicas mutuamente excluyentes. El método básico, por el contrario, puede usarse, en cualquier caso, tanto dicotómico como múltiple. Ambos métodos requieren unas probabilidades iniciales aportadas por el juicio de cada analista.

  • Método Básico

Supongamos que se plantean tres hipótesis sobre el conflicto de las dos Coreas (Corea del Norte y Corea del Sur):

  1. Agresión a gran escala de Corea del Norte dentro de seis meses
  2. Agresión a pequeña escala como provocación dentro de seis meses
  3. Corea del Norte no planea agresiones

Supongamos ahora que el analista asigna al comienzo del análisis un 25% de probabilidad a las hipótesis A y B y un 50% a la C. Nótese que todas las hipótesis juntas deben sumar el 100%. Después, durante el desarrollo del análisis, los analistas evaluaran como se relaciona cada una de las nuevas evidencias con cada una de las hipótesis. Para ello utilizarán el razonamiento abductivo[10], y se formularan la siguiente pregunta para cada hipótesis de trabajo: ¿Con que probabilidad ocurriría esa evidencia si la hipótesis A fuera verdadera?. Como el lector observará, se trata de una probabilidad condicional de la evidencia dado que se toma por cierta la hipótesis A. Lo mismo para las otras dos hipótesis.

En el caso que examinamos supongamos que se recibe una información de un agente de que el líder de Corea del Norte está redactando un discurso muy belicoso que pretende leer en público en los próximos días. Esa evidencia sería cierta al 90% para la hipótesis A y B y un 80% para la C. Como se observa, en este caso, las probabilidades no necesariamente deben sumar el 100%.

La fórmula general para calcular la probabilidad revisada con la introducción de cada nueva evidencia es:

Donde:

P(Si) es la probabilidad inicial para el escenario i

P(I/Si) es la probabilidad condicional de cada nuevo evento

P(Si/I) es la probabilidad revisada para el escenario i

m es el número de escenarios

En nuestro ejemplo tenemos que, para la primera evidencia introducida:

Como podemos observar, las probabilidades revisadas deben seguir sumando el 100%. Estas nuevas probabilidades se tomarán como probabilidades de inicio cuando introduzcamos nuestra segunda evidencia.

Imaginemos ahora la entrada de una nueva evidencia cuyas probabilidades condicionadas son:

Para Hipótesis A: 60%

Para Hipótesis B: 20%

Para Hipótesis C: 10%

Volvemos a realizar cálculos para esta nueva evidencia:

Evidentemente, todos los cálculos aquí implementados a mano pueden realizarse con la ayuda de los modernos software de computación.

  • Método Simplificado

Se utiliza el método simplificado cuando las circunstancias lo permiten, esto es cuando hablamos de hipótesis dicotómicas excluyentes. El uso de este método reduce enormemente los esfuerzos de los analistas, siendo incluso factible realizar los cálculos a mano, como veremos a continuación.

Se comienza estableciendo las probabilidades iniciales para cada hipótesis. Como en el método anterior, cada nueva evidencia es evaluada asignándole dos números, uno para cada hipótesis (recordemos que aquí trabajamos solo con dos hipótesis). Pero el resultado cambia, porque si bien en el primer método básico el resultado era un número en porcentaje aquí va a ser una razón de una hipótesis sobre otra. Por ejemplo, si una determinada evidencia se valora como un 10% de verosimilitud con la hipótesis A y un 90% de verosimilitud con la hipótesis B y la evaluación se realiza en términos de la hipótesis A sobre la B, el resultado sería 10/90.

Imaginemos ahora que la valoración inicial de los analistas para las dos hipótesis A y B es de 25% y 75% respectivamente. Que se valoran cinco evidencias diferentes como especifica el siguiente cuadro y que se quiere obtener la razón de la hipótesis B sobre la hipótesis A

 

Los cálculos se efectuarían como sigue:

El resultado obtenido en términos de razón debe ser convertido después en porcentaje de probabilidad. Para ello, nuestro nuevo denominador será la suma del numerador y el denominador del resultado inicial y nuestro nuevo numerador será 100. En este caso obtendríamos 100/16 o, lo que es lo mismo, 6.25. El siguiente paso es multiplicar el numerador y denominador de nuestro resultado inicial por esta cantidad recién obtenida. El resultado final sería:

Hipótesis A: 15* 6.25 = 93.75

Hipótesis B: 1* 6.25 = 6.25

En la actualidad, la aplicación directa de los métodos bayesianos en el ámbito de inteligencia tiene que ver con el análisis de indicadores y las alertas estratégicas que pretenden, básicamente, descubrir cualquier patrón de actividad de un país extranjero que pueda influir directa o indirectamente en los intereses de la seguridad nacional. Un ejemplo hipotético y muy básico sería la probabilidad del comienzo de una guerra civil en un país, probabilidad que debe ser actualizada continuamente a la luz de nuevos sucesos o eventos.

Si hay una técnica de análisis famosa entre los analistas de inteligencia, esa es, sin lugar a dudas, el análisis de hipótesis en competencia (ACH). Esta técnica fue desarrollada entre los años 1978 y 1986 por el prestigioso analista de la CIA Richards J. Heuer y se dio a conocer por primera vez con la publicación del libro, ahora un clásico, de Heuer titulado “La psicología del análisis de inteligencia”.

Se ha escrito mucho sobre esta técnica, pero aquí únicamente nos interesa en relación al tema que hemos tratado, esto es, desde una perspectiva puramente metodológica.

Efectivamente, esta técnica de análisis está enmarcada en un marco probabilístico bayesiano y trata de estudiar simultáneamente todas las hipótesis posibles y relacionarlas con las evidencias existentes para clasificarlas por orden de probabilidad. Es decir, en esencia, es el desarrollo de la mecánica que previamente hemos desarrollado realizando los cálculos a mano y sin ayuda del software.

Desde un punto de vista epistemológico, podemos decir que la matriz del ACH trata de metrizar o cuantificar la información cualitativa. Desde una perspectiva más cercana a la lógica el análisis es una aplicación de varias clases de inferencia, inferencia abductiva, inferencia inductiva e inferencia de la mejor explicación, logrando con ello la síntesis clásica de la investigación científica.

En la generación de hipótesis se sigue al pie de la letra la primera regla de Pierce que dice que la hipótesis debe ser formulada claramente como una pregunta antes que se hagan las observaciones que han de comprobar su verdad. Respecto a las evidencias, Heuer recomienda incluir no sólo las evidencias que creamos más claras, sino todo el conjunto de factores relacionados con el objetivo y que podrían tener impacto a la hora de elaborar la hipótesis final. No se debe caer en el error o la tentación de tomar sólo aquellas observaciones que apoyan las hipótesis de trabajo.

En el siguiente paso, el análisis adopta la forma de una inferencia inductiva, evaluando las hipótesis a la luz de las evidencias. Se aconseja reconsiderar o reformular las hipótesis para reflejas todas las alternativas importantes. Puede ser necesario combinar algunas hipótesis con otras.

Finalmente se revisa cada hipótesis para sacar conclusiones provisionales sobre la probabilidad relativa de cada una. Este estadio final se desarrolla a través de la inferencia de la mejor explicación, que nos ayuda a elegir la mejor hipótesis de las que tenemos, mediante la ayuda de la probabilidad establecida por el programa para cada hipótesis. La inferencia de la mejor explicación (IME) se ocupa de los criterios de selección que deben aplicarse para determinar cuál es la hipótesis correcta. No se afirma que la hipótesis escogida sea la verdadera, sino solo que es bastante seguro o probable que lo sea. Podemos afirmar que la justificación de IME es una justificación inductiva, aunque debamos distinguir la inferencia inductiva y la IME como dos tipos diferentes de inferencia (Vega y Olmos, 2011: 301-304).

Dado que los eventos son dinámicos y están sujetos a una variedad de influencias, las conclusiones son siempre o casi siempre provisionales. Por tanto, se especifican en el informe aquellos hechos que podrían causar cambios significativos en la probabilidad de la hipótesis aceptada. El informe también puede sugerir posibilidades que pueden desarrollarse en el futuro.

Si dejamos a un lado el ámbito de las alertas tempranas y los indicadores, el análisis bayesiano también es utilizado en otras áreas de la inteligencia estrechamente vinculadas a la predicción o la prospectiva. Una de ellas es el análisis de series temporales, donde se introducen parámetros bayesianos que condensan la información de los expertos para completar la información de los datos en los modelos ARMA o ARIMA. Una vez estimado el modelo, éste arroja unos resultados en términos de parámetros bayesianos “a posteriori” que sirven como nuevos “a priori” en la siguiente ocasión.

 

Conclusiones

El método bayesiano busca aislar el análisis de las posibles fragilidades de la lógica humana agregando las evidencias. Sin embargo, el trabajo en el mundo del análisis de inteligencia está relacionado no sólo con la posible inconsistencia diaria entre la conclusión derivada del cuerpo de evidencias tomadas como un todo y la conclusión que lógicamente debería seguirse de los juicios sobre las evidencias consideradas una por una, sino también ante la posibilidad de error a la hora de juzgar las evidencias por separado.

Desde un punto de vista pragmático, en inteligencia se anhela el tipo de evidencia que se explica por sí misma y a la que la mayoría de la gente atribuye el mismo valor, porque se supone que, a mayor número de ese tipo de evidencias, más fácil lo tendrá el analista, pues le ayudan a llegar a conclusiones mucho mejor de lo que podría hacerlo cualquier otro método de la lógica formal. Respecto a este punto, los bayesianos responden que la inteligencia debe hacerlo lo mejor que pueda con la información que tiene en ese momento. En un mundo en el que no dejan de aparecer juicios y suposiciones equivocadas a partir de las evidencias la aproximación bayesiana no supone la perfección, pero sí un camino para mejorar.

Pero aún cabe mencionar otro logro histórico de la metodología bayesiana y es que el método bayesiano salió en ayuda del análisis de inteligencia al proporcionarle una herramienta, fundamentada en su aparato lógico-matemático, para sustanciar o contradecir las verbalizaciones que aportaban incertidumbre al análisis de inteligencia tradicional, usos verbales que ya habían sido criticados por Sherman Kent buscando algún tipo de cuantificación o metrización de determinados usos en los informes como era el caso de la diferencia entre probablemente cierto y posiblemente cierto o la diferencia entre improbable y dudoso.

Por otro lado, es importante destacar que el conocimiento y el manejo de este tipo de análisis no sólo concierne a los analistas sino, casi obligadamente, también a sus superiores directos e indirectos. De lo contrario, como ya hemos apuntado, y debido a que el análisis bayesiano, al utilizar la probabilidad condicional, es muy contraintuitivo, puede suceder que no se entiendan sus resultados y de ese desconocimiento surja la desconfianza hacia los resultados aportados por el mismo.

Pero eso no será posible hasta que los programas de formación universitarios y militares para analistas y oficiales de inteligencia de nuestro país incorporen estos conocimientos plenamente, desde el rigor metodológico, sin las desconfianzas y el desconocimiento que han generado en épocas anteriores. Y es responsabilidad de los centros formativos, pero también de los profesionales, trabajar y tratar de remar en la misma dirección para que en algún momento así suceda.

 

Nota sobre el autor:

Juan Pablo Somiedo es analista de inteligencia.

 

Referencias bibliográficas:

Bar-Hillel, M. & Falk, R. (1982). Some teasers concerning conditional probabilities. Revista Cognition, (11), 109-122. Disponible en: https://www.clear.rice.edu/comp280/10spring/class/19/Teasers.pdf

Bertsch, S. (2012). La teoría que nunca murió. Barcelona: Editorial Crítica

Clauser, J. (2008). An introduction to intelligence research and analysis. Maryland: Scarecrow professional intelligence education series, nº 3.

Fisk, C.E. (1967). The sino-soviet border dispute: a comparison of the conventional and bayesian methods for intelligence warning. Disponible en: https://www.cia.gov/...for...intelligence/.../v16i2a04p_0001.htm

Heuer, R. (2005). ACH1.1: A Tool for Analyzing Competing Hypotheses Technical Description for Version 1.1. Disponible en:  http://www.pherson.org/PDFFiles/ACHTechnicalDescription.pdf

Heuer, R. y Pherson, R. (2015). Técnicas Analíticas Estructuradas para el análisis de inteligencia. Madrid: Editorial Plaza y Valdés.

Rios, S. y Rios, D. (2002). La arquitectura del conocimiento complejo, el sentido común y la probabilidad. Disponible en: http://www.rac.es/ficheros/doc/00358.pdf

Somiedo, J.P. (2012). El papel de la epistemología en el análisis de inteligencia. Inteligencia y seguridad: Revista de análisis y prospectiva, (12), 241-272.

-(2014a). El análisis de información en entornos colaborativos. Trabajo Fin de Máster. Universidad Nacional de Educación a Distancia (UNED). Disponible en: http://e-spacio.uned.es/fez/view/bibliuned:masterFilosofiaFilosofiaPractica-Jpsomiedo

-(2014b). Una aproximación al análisis de riesgos adversarios (ARA) aplicado a la lucha contraterrorista. Instituto Español de Estudios Estratégicos. Disponible en: http://www.ieee.es/Galerias/fichero/docs_opinion/2014/DIEEEO05-2014_AnalisisdeRiesgos_JuanPabloSomiedo.pdf

-(2016). Cuestiones epistemológicas vinculadas al análisis de inteligencia, Instituto Universitario de Investigación sobre Seguridad Interior (IUSI). Disponible en: http://iuisi.es/?p=217

Vega, L. y Olmos, P. (Coord.) (2011). Compendio de Lógica, Argumentación y Retórica. Madrid: Trotta

VV.AA. (1975). Handbook of Bayesian Analysis for Intelligence. Directorate of Intelligence, Central Intelligence Agency. Disponible en: https://www.cia.gov/.../CIA-RDP86B00269R001100080001-0.pdf

VV.AA. (1968). Bayes´ Theorem in the Korean War. Directorate of Intelligence, Central Intelligence Agency. Disponible en: https://www.cia.gov/library/readingroom/.../DOC_0001205738.pdf

Zlotnick, J. (1970). Bayes theorem for intelligence analysis. Disponible en: https://www.cia.gov/library/...intelligence/.../pdf/v16i2a03p.pdf


[1] En este sentido, siempre me ha parecido que la obra de Jerome Clauser, An Introduction to Intelligence Research and Analysis, supera con mucho al manual de técnicas estructuradas de los Pherson, acercándose más a las tareas y metodologías empleadas por los analistas. Pero aquél fue tomado como referencia y este, siendo mucho más riguroso y aproximado a la realidad del analista de inteligencia e incorporando algunas técnicas cuantitativas, continúa olvidado en el baúl de los recuerdos y ni se menciona en la mayoría de los cursos de formación para analistas.

[2] El modelo de “Adversarial Risk Analysis for Counterterrorism Modeling” (ARA) tuvo su origen en el esfuerzo conjunto de tres profesores mientras participaban en el programa “Risk análisis, extreme events and decisión theory” en el SAMSI (Statistical and Applied Mathematical Sciencies Institute), un proyecto colaborativo de varias universidades de Estados Unidos. Los resultados se plasmaron en un artículo publicado en el Jasa (Journal of the American Statistical Association). Los autores son David Banks, Jesús Ríos y el profesor español David Ríos Insúa. (Somiedo, 2014: 7).

[3] El lector interesado en profundizar en el estudio de patrones en inteligencia puede consultar un artículo escrito por el autor para el Grupo de Estudios en Seguridad Internacional de la Universidad de Granada que lleva por título Notas técnicas sobre el estudio de patrones en el análisis de inteligencia militar utilizando software libre y que está disponible en el siguiente enlace: http://www.seguridadinternacional.es/?q=es/content/notas-t%C3%A9cnicas-sobre-el-estudio-de-patrones-en-el-an%C3%A1lisis-de-inteligencia-militar

[4] El lector interesado puede profundizar en este aspecto consultando los capítulos cuarto (Bayes acude al frente) y noveno (Siempre hay una primera vez) de la obra de la obra de Sharon Bertsch McGrayne citada en el apartado bibliográfico.

[5] Sirvan como prueba de lo que escribo el programa del Justice Institute of British Columbia de Canadá: http://www.jibc.ca/sites/default/files/justice_public_safety/pdf/JIBCINTL-TACTProgramInformation.pdf, el de la California State University Fullerton de EE.UU: http://extension.fullerton.edu/ProfessionalDevelopment/Certificates/Crime o el de la Angelo State University de Texas en EE.UU www.angelo.edu/courses/syllabi/201720/29302.pdf

[6] En sus investigaciones, Polya puso el énfasis en los aspectos cualitativos del razonamiento plausible. Pero, de hecho, como bien apunta el profesor Sixto Ríos, es posible modelizar el razonamiento plausible en términos probabilísticos mediante las hipótesis de Cox, con lo que se consigue ver cómo el razonamiento plausible puede considerarse como una extensión del razonamiento lógico (Ríos, 2002: 114). Además, el análisis bayesiano nos sirve para actualizar nuestra información con la incorporación de nuevas evidencias.

[7] El símbolo “α” significa que equivale no que es igual. Es una notación muy utilizada en estadística bayesiana.

[8] El manual puede consultarse en la siguiente dirección:https://www.cia.gov/library/readingroom/docs/CIA-RDP86B00269R001100080001-0.pdf.

[9] En 1906 Francis Galton bautizó el concepto de regresión a la media. Su tesis era que la predicción de un grupo de persona expresada como un todo, mejora la precisión de cualquier experto individual. James Suroweicki señala de nuevo recientemente esta idea en su libro “The wisdom of crowds”. A nivel estadístico, lo que ocurre es que, si se agregan apropiadamente la visión de muchas personas, el ruido queda compensado con el ruido, y nos quedamos con la señal. Es una teoría realmente útil y eficiente, pero que requiere de la heterogeneidad de las fuentes, la toma de decisiones independientes y un buen proceso de agregación de información. (Somiedo, 2014: 29).

[10] Si saliéramos a la calle y preguntásemos a la gente qué es la abducción, seguramente la mayoría nos respondería que es algo relacionado con los ovnis y los extraterrestres. Para una mayor profundización en este método de razonamiento lógico, el lector puede consultar el artículo escrito por el autor titulado “Epistemología aplicada al Ciclo de Inteligencia” que figura en el apartado bibliográfico de este trabajo.

 

Español

          Licencia de Creative Commons

Revista de Estudios en Seguridad Internacional is licensed under a Creative Commons Reconocimiento-NoComercial 4.0 Internacional License.
Creado a partir de la obra en http://www.seguridadinternacional.es/revista/.