Brownstone » Diario de piedra rojiza » Media » ¿La IA casi desencadenó la Tercera Guerra Mundial?
¿La IA casi desencadenó la Tercera Guerra Mundial?

¿La IA casi desencadenó la Tercera Guerra Mundial?

COMPARTIR | IMPRIMIR | EMAIL

Recordemos que el fiasco del Covid se aceleró cuando Neil Ferguson, del Imperial College de Londres, generó una tremendamente incorrecto Estimación de la tasa de mortalidad del virus proveniente de China. Tenía dos pronósticos: uno sin confinamientos (muerte generalizada) y otro con confinamientos (no terrible). La idea era inspirar la réplica de los métodos extremos de control popular del PCCh en Occidente. 

Ese modelo, compartido por primera vez en espacios clasificados, cambió la narrativa. Una vez que asesores selectos, entre ellos Deborah Birx y Anthony Fauci, se lo presentaron a Trump, este pasó de oponerse a los confinamientos a anticiparse a lo aparentemente inevitable. 

En poco tiempo, cada ONG financiada por Gates Impulsaba más modelos similares que demostraban el punto. Multitudes los observaban como si fueran un fiel reflejo de la realidad. Los principales medios de comunicación informaban sobre ellos a diario. 

A medida que el fiasco se prolongaba, también lo hacía la falsificación de datos. Las pruebas PCR generaban falsos positivos, dando la impresión de una catástrofe inminente, a pesar de que las infecciones de importancia médica eran muy limitadas. Las infecciones e incluso las exposiciones se redefinieron como casos, por primera vez en la historia epidemiológica. Luego vinieron las “muertes por Covid” subsidiadas, que claramente generaron oleadas de clasificaciones erróneas que subrayan la sobreestimación de la tasa de mortalidad. 

Es asombroso y aterrador una vez que lo sumas todo. Modelos y datos erróneos crearon una pandemia letal de gravedad incierta que luego, supuestamente, se resolvió con vacunas probadas con datos erróneos y cuya eficacia quedó demostrada aún más por modelos y datos pésimos. 

Sin duda, hay una lección aquí. Y, sin embargo, el romance con los malos modelos y los malos datos no ha terminado del todo. 

Hay evidencia de que se desarrolló un escenario muy similar con respecto a la afirmación de que Irán estaba construyendo un arma nuclear, lo que resultó en un infierno de bombas y muerte tanto en Irán como en Israel. 

Las mismas afirmaciones imprecisas, ocultas en un lenguaje cambiante que difuminaba las distinciones cruciales entre intenciones y realidades, fueron generadas por un modelo de IA. Construido por la empresa Palantir para el Organismo Internacional de Energía Atómica, fue el responsable de incitar a Estados Unidos a unirse a la guerra con un despliegue espectacular de potencia de fuego militar, compuesto por bombarderos B2 y otros misiles. 

Esta extraña miniguerra terminó casi tan rápido como empezó, cuando Donald Trump cambió de postura repentinamente, dejó de pedir un cambio de régimen y luego recurrió a los medios y a sus propias redes sociales para criticar duramente a Irán e Israel con un lenguaje cargado de improperios. Estaba visiblemente furioso, afirmando que ninguno de los dos gobiernos sabe lo que hace. 

Fue un momento de retroceso al verano de 2020 después del período de confinamientos, cuando Trump dio marcha atrás y comenzó a pedir una reapertura que entonces no podía hacer. 

Parece haber una historia más profunda aquí, relacionada con datos y modelos erróneos que casi incendiaron el mundo. Analicemos la trayectoria de esta miniguerra. 

El fiasco comenzó el 12 de junio de 2025, cuando el OIEA reportó cierta controversia en su informe habitual sobre Irán, suficiente para afirmar oficialmente que Irán "no cumplía". Esta opinión contradecía lo que decían todos los demás miembros de la comunidad de inteligencia, incluida la directora de Inteligencia Nacional de Trump, Tulsi Gabbard. Varios meses antes, Gabbard había testificado que Irán no estaba dando pasos hacia la construcción de armas nucleares, pero no podía descartar que pudieran hacerlo en algún momento. 

Varios meses antes, el 12 de abril de 2025, Trump había enviado al enviado especial Steve Witkoff en una iniciativa diplomática a Irán, incluidas reuniones de alto nivel con el ministro de Asuntos Exteriores iraní, Abbas Araghchi. 

Sin embargo, el informe del OIEA cambió la dinámica repentinamente. El primer ministro israelí, Benjamín Netanyahu, basándose en el informe del OIEA, inició una campaña de bombardeos y asesinatos bajo la afirmación de que Irán, de hecho, estaba fabricando un arma nuclear. Irán reportó 220 muertes, entre ellas muchos científicos. Al día siguiente, bombas de represalia cayeron sobre Tel Aviv: 100 misiles, de los cuales 10 causaron daños materiales, pánico y más de 40 israelíes resultaron heridos.

La guerra entre dos naciones continuó durante días mientras inocentes en ambos países morían y las redes sociales documentaban cielos en llamas con cohetes cayendo sobre objetivos. 

El 17 de junio, el Director General del OIEA, Rafael Grossi, aclaró en CNN que no había pruebas de que Irán estuviera cerca de tener una bomba. «No teníamos ninguna prueba de un esfuerzo sistemático [por parte de Irán] para desarrollar un arma nuclear», confirmó Grossi a CNN.

¿Qué demonios pasó entonces? ¿Qué sentido tenía toda esta muerte y destrucción?

As DD Geopolítica informó que “desde 2015, el OIEA ha confiado en la plataforma Mosaic de Palantir, un sistema de inteligencia artificial de 50 millones de dólares que analiza millones de puntos de datos (imágenes satelitales, redes sociales, registros de personal) para predecir amenazas nucleares”.

En este caso particular, (aqui) Alastair Crooke, 

Su algoritmo busca identificar e inferir "intención hostil" a partir de indicadores indirectos (metadatos, patrones de comportamiento, tráfico de señales), no de pruebas confirmadas. En otras palabras, postula lo que los sospechosos podrían estar pensando o planeando. El 12 de junio, Irán filtró documentos que, según afirmaba, mostraban que el director del OIEA, Rafael Grossi, compartía los resultados de Mosaic con Israel. Para 2018, Mosaic había procesado más de 400 millones de objetos de datos discretos y había contribuido a imputar sospechas a más de 60 emplazamientos iraníes, justificando así inspecciones no anunciadas del OIEA en dichos emplazamientos, en virtud del Plan de Acción Integral Conjunto (PAIC). Estos resultados, aunque dependen en gran medida de las ecuaciones algorítmicas, se incorporaron a los informes formales de salvaguardias del OIEA y fueron ampliamente aceptados por los Estados miembros de la ONU y los regímenes de no proliferación como evaluaciones creíbles y basadas en pruebas. Sin embargo, Mosaic no es un sistema pasivo. Está entrenado para inferir a partir de su algoritmo la intención hostil, pero al reutilizarse para la supervisión nuclear, sus ecuaciones corren el riesgo de convertir una simple correlación en una intención maliciosa.

¿Cómo llegó a Trump el falso positivo sobre las supuestas armas nucleares de Irán? Político (aqui) que “el jefe del Comando Central de EE. UU., general Erik Kurilla [con una larga trayectoria en actividades de desarrollo nacional que se extienden desde Panamá hasta Haití e Irak] ha desempeñado un papel descomunal en la escalada de enfrentamientos entre Teherán e Israel, y los funcionarios señalan que casi todas sus solicitudes han sido aprobadas, desde más portaaviones hasta aviones de combate en la región”.

Al parecer, fue este mismo informe de inteligencia artificial del OIEA, posteriormente repudiado, el que impulsó al propio Trump a seguir adelante con la intervención militar, incluso hasta el punto de renegar de las opiniones de su propio Director de Inteligencia Nacional. El propio Trump afirmó que le "daba igual lo que ella [Gabbard] pensara". 

Los ataques estadounidenses se produjeron unos días después, con el lanzamiento de bombas antibúnker contra tres instalaciones nucleares iraníes (Fordow, Isfahán y Natanz), lo que marcó el primer ataque estadounidense contra el programa nuclear de otro país. El problema: todo se basó en modelos y datos imprecisos, que recordaban curiosamente a la experiencia de la COVID-19. 

El problema político para MAGA era insoportablemente obvio. Trump llevaba tiempo afirmando que Irán no podía tener armas nucleares, pero se distinguía de halcones como Nikki Haley precisamente porque ella quería bombardear Irán, mientras que Trump haría un trato y lo haría cumplir. Fue el informe sobre el software de Palantir lo que lo hizo cambiar de postura, pasando de oponerse a apoyar los ataques y la intervención. 

Como era de esperar, la mayoría de los influencers de MAGA —Steve Bannon, Alex Jones, Tucker Carlson, Matt Gaetz, Matt Walsh y muchos otros— tomaron la inusual decisión de criticar duramente a la administración Trump por su gatillo impulsivo y advertir sobre el inicio de la Tercera Guerra Mundial. Ninguno de ellos, que yo sepa, podría haber imaginado que la ciencia falsa generada por una empresa de datos afín a Trump fuera la fuente del informe engañoso. 

¿Qué sucedió para que Trump cambiara de opinión? Aquí entramos en la especulación. Parece probable que el propio equipo de Tulsi y las agencias de inteligencia de Trump comenzaran a desmantelar los acontecimientos y a aislar la fuente del problema en modelos erróneos, datos erróneos y ciencia deficiente. Fueron estos factores los que desataron la ambición política y la corrupción, como en el caso de la COVID-19. 

Esto empezó a cambiar la opinión de Trump, pero fue la propia respuesta de Irán, bombardeando Qatar, lo que le dio la ventaja. Parece que Irán advirtió a Estados Unidos para que no hubiera pérdidas humanas. Este acto de racionalidad humanitaria impresionó a Trump y le hizo replantearse la idea fundamental de que Irán ambicionaba poseer armas de destrucción masiva.

Hay ecos de la invasión de Irak, pero también de la experiencia de la COVID-19. Modelos, datos y ciencia deficientes habían conspirado una vez más contra la libertad y la paz, los mismos ideales que Trump pretendía proteger al llegar al poder. Por ello, cambió rápidamente de postura: no más bombardeos, no más expertos, no más atentados contra la vida. 

O podemos ver todo este fiasco asesino como una versión real de la película. Dr. Strangelove En el que el error, la burocracia y el fanatismo se combinan para crear resultados que nadie en particular pretendía, pero que nadie puede detener una vez que comienzan. Afortunadamente, en este caso, prevaleció la serenidad. ¡No confíen en los modelos, no confíen en los expertos, no confíen en los datos falsos y no confíen en la IA! 

Sólo podemos esperar que la lección perdure. 


Unirse a la conversación:


Publicado bajo un Licencia de Creative Commons Atribución Internacional
Para reimpresiones, vuelva a establecer el enlace canónico en el original Instituto Brownstone Artículo y Autor.

Autor

  • Jeffrey A. Tucker

    Jeffrey Tucker es fundador, autor y presidente del Brownstone Institute. También es columnista senior de economía de La Gran Época, autor de 10 libros, entre ellos La vida después del encierroy muchos miles de artículos en la prensa académica y popular. Habla ampliamente sobre temas de economía, tecnología, filosofía social y cultura.

    Ver todos los artículos

Dona ahora

Su respaldo financiero al Instituto Brownstone se destina a apoyar a escritores, abogados, científicos, economistas y otras personas valientes que han sido expulsadas y desplazadas profesionalmente durante la agitación de nuestros tiempos. Usted puede ayudar a sacar a la luz la verdad a través de su trabajo continuo.

Suscríbete al boletín del Brownstone Journal

Regístrate gratis
Boletín informativo del Brownstone Journal