El uso de inteligencia artificial en ataques contra Irán abre debate por posibles fallas en la selección de objetivos
Introducción El uso de sistemas avanzados de inteligencia artificial (IA) en operaciones militares contra Irán volvió a poner bajo discusión internacional el rol de estas tecnologías en la guerra....
Introducción
El uso de sistemas avanzados de inteligencia artificial (IA) en operaciones militares contra Irán volvió a poner bajo discusión internacional el rol de estas tecnologías en la guerra. Reportes citados por medios estadounidenses y por la agencia ‘EFE’ describen un escenario en el que herramientas algorítmicas habrían acelerado la identificación de objetivos y la ejecución de ataques, con resultados que hoy generan preguntas sobre control, supervisión y errores.
Tabla de contenido
Hechos clave reportados
Según informes publicados por medios estadounidenses, herramientas algorítmicas habrían permitido identificar y atacar más de mil objetivos en las primeras 48 horas de la ofensiva. En ese mismo periodo, de acuerdo con esos reportes, se habría ejecutado el bombardeo que terminó con la muerte del líder supremo iraní, Alí Jameneí, una operación que —según la información citada— en conflictos anteriores habría tomado varios días.
La revista británica ‘AI’ sostuvo que estas tecnologías están cambiando los tiempos de decisión en el ámbito militar. “Desde la identificación de objetivos y la obtención de la aprobación legal hasta la ejecución de los ataques, la IA está acelerando la toma de decisiones en todos los niveles”, afirmó la publicación.
Qué sistemas de IA se mencionan
Entre las herramientas citadas aparece el proyecto Maven, descrito como una iniciativa de “guerra algorítmica” del Pentágono y actualmente bajo la Agencia Nacional de Inteligencia Geoespacial. Según el propio Departamento de Defensa, el sistema usa IA para analizar imágenes de drones y satélites, detectar posibles objetivos y marcarlos en mapas para generar listas de blancos que luego son revisadas por personal humano.
El diario ‘The Washington Post’ informó, citando a tres fuentes familiarizadas con el sistema, que esta herramienta habría sido empleada también durante las operaciones en Irán.
Antecedentes y uso en otros escenarios
De acuerdo con reportes sobre el proyecto Maven, estas tecnologías ya habían sido probadas en escenarios como Siria, Irak, Yemen, el mar Rojo y, más recientemente, en Ucrania.
En paralelo, portavoces militares de Israel han reconocido públicamente que usan sistemas de inteligencia artificial y análisis avanzado de datos para ayudar a identificar y priorizar objetivos durante sus operaciones militares en Gaza.
El modelo Claude y su papel en el ataque
La cadena ‘CBS News’ informó, citando fuentes del Pentágono, que el ejército estadounidense utilizó el modelo de inteligencia artificial Claude, desarrollado por la empresa Anthropic, durante el ataque contra Irán.
Según ‘The Wall Street Journal’, que fue el primero en reportar ese uso, el modelo habría sido aplicado en tareas de análisis de inteligencia, identificación de posibles objetivos y simulación de escenarios de combate.
Retos y dudas: errores de correlación y supervisión humana
El debate se intensificó tras informes sobre el bombardeo de una escuela infantil en Minab, en el sur de Irán, donde murieron cerca de 180 personas durante el primer día del conflicto. Esos reportes abrieron interrogantes sobre si el ataque pudo haber sido resultado de una correlación incorrecta de datos por parte de sistemas algorítmicos.
Además, el analista iraní Trita Parsi señaló similitudes entre los bombardeos en Gaza y los ataques en Teherán. Según afirmó, Israel estaría utilizando inteligencia artificial “sin supervisión humana” en algunos casos, lo que habría llevado a seleccionar objetivos erróneos.
Interpretación del caso
Este caso muestra una tensión difícil de resolver: la promesa de velocidad y escala que ofrecen los sistemas de IA frente a la necesidad de control y responsabilidad en decisiones de alto impacto. Los reportes citados describen procesos en los que la tecnología acelera etapas completas —desde la identificación de objetivos hasta la ejecución— y, al mismo tiempo, dejan sobre la mesa el riesgo de que una correlación incorrecta de datos termine en consecuencias irreversibles.
En este contexto se observa que la discusión no se limita a “usar o no usar” IA, sino a cómo se integra en cadenas de decisión que incluyen aprobación legal, revisión humana y priorización de blancos. La mención de listas de objetivos revisadas por personal humano contrasta con señalamientos sobre posibles usos “sin supervisión humana”, lo que pone el foco en la gobernanza operativa: quién valida, con qué criterios y en qué momento.
Más allá de los sistemas específicos mencionados, el debate gira alrededor de un punto práctico: cuando la tecnología reduce tiempos, también reduce ventanas para detectar errores. La utilidad operativa que describen los informes convive con una pregunta central: qué mecanismos se requieren para evitar que la automatización convierta fallas de datos en decisiones finales.


