
- Introducción
- 1. ¿Por qué la IA se ha vuelto central en la guerra moderna?
- 2. La “uberización” de la guerra: tecnología comercial en manos militares
- 3. Experimentos y aplicaciones reales
- 4. Lo que ocurre en la guerra de Gaza
- 5. Maven, Skepter y la inteligencia satelital de EE.UU.
- 6. Empresas tecnológicas vs. contratistas tradicionales
- 7. La paradoja del Pentágono: software clave pero con poco presupuesto
- 8. Riesgos éticos y legales
- 9. Rearme mundial y estrategia geopolítica
- Conclusión
- Preguntas frecuentes (FAQ)
La inteligencia artificial (IA) ya no es solo una herramienta de apoyo: está devorando el campo de batalla y cambiando para siempre la naturaleza de la guerra. Los sistemas autónomos, el análisis avanzado de datos y las plataformas digitales están transformando desde los sistemas de armas hasta las decisiones estratégicas. Este artículo explica cómo la IA interviene en conflictos actuales, qué actores tecnológicos están liderando la transformación y cuáles son los desafíos éticos, legales y políticos que enfrenta el mundo.
Introducción
Miles de drones volando en formación. Armas que se mueven de manera autónoma entre árboles. Visores y cascos capaces de dar visión 360° a soldados y pilotos.
La inteligencia artificial (IA) está devorando el campo de batalla y dándole una nueva forma a la guerra, no solo por las armas en sí, sino por el software que las controla. Aunque el hardware militar tradicional es la cara más visible en conflictos como el de Ucrania, el impacto menos perceptible se encuentra detrás, en la sala de máquinas de esas armas.
La IA y la tecnología de la información están redefiniendo el lenguaje de la guerra moderna, basándose en la capacidad de proveedores comerciales para suministrar datos del campo de batalla, que luego se condensan en aplicaciones innovadoras.
Durante décadas, el Departamento de Defensa de Estados Unidos solicitó a empresas que desarrollaran nuevas tecnologías para cubrir sus necesidades. Hoy, son las empresas de Silicon Valley las que ofrecen la misma tecnología que ya usan en sus aplicaciones comerciales, adaptada ahora a fines militares. Este fenómeno ha sido definido como la “uberización de la guerra”, con empresas como Amazon, Microsoft y Google destacando por llevar a un nuevo nivel la fusión entre el sector civil y el militar.
Esto significa que el software se ha convertido en el elemento clave del armamento, al mismo nivel, o incluso superior, que obuses, tanques o aviones.
En 2022, en el Reino Unido, la Royal Navy realizó un experimento llamado Storm Cloud, en colaboración con Microsoft y Amazon Web Services. El objetivo era demostrar que la tecnología comercial puede integrarse rápidamente en sistemas militares y llevarse al campo de batalla. La hipótesis era que la IA podía detectar, analizar y destruir objetivos más rápidamente que los humanos y con menor riesgo de error. Aunque el experimento se quedó en una simulación, otros ejércitos ya emplean sistemas reales de detección y eliminación automática de objetivos.
Las guerras en Ucrania y Gaza destacan por el papel central de la IA. Esta es fundamental para la llamada “trinidad transformadora”: el uso conjunto de drones, satélites, redes de sensores civiles y militares, y sistemas de comando y control digitales, que permiten a los soldados actuar con información en tiempo real.
En Ucrania, se han desarrollado drones con IA capaces de seguir misiones de forma automática, incluso cuando las interferencias rusas anulan el GPS y las comunicaciones. El software Gis Arta es otro ejemplo: recopila datos sobre objetivos rusos y genera listas de posibles blancos para la artillería, basándose en las prioridades del comandante. La IA también se usa en logística, como predecir cuándo fallarán aeronaves o cuándo reemplazar cañones. También ha optimizado rutas clave de abastecimiento, como la que conecta Kiev con Estambul.
Israel ha llevado el uso militar de la IA aún más lejos. El software Gospel permite identificar bases de Hamas ocultas en edificios civiles, y Lavender rastrea presuntos terroristas. Ambos se alimentan de múltiples fuentes: redes sociales, cámaras de vigilancia, datos estatales e inteligencia. Aunque se afirma que hay verificación humana antes de los ataques, expertos dudan de que haya suficiente tiempo y datos para decisiones realmente informadas. De hecho, investigaciones independientes indican que Lavender tiene un 10% de margen de error. Gospel ha permitido atacar 15,000 objetivos en solo 35 días, cuando en 2014 se atacaron 6,000 en 51 días. Los militares israelíes tendrían solo 20 segundos para validar o rechazar un ataque sugerido por la IA.
No se conocen los socios tecnológicos israelíes para estos proyectos, pero sí se sabe quién está detrás de Maven, un sistema similar desarrollado en EE.UU. Maven es una IA que analiza múltiples fuentes para identificar objetivos enemigos y coordinar ataques. En este proyecto han participado Amazon, Microsoft, Maxar, Palantir y Google (que se retiró en 2018). Maven se usó por primera vez en 2020 en las maniobras Scarlett Dragon, donde identificaba objetivos (como tanques) y ordenaba ataques de artillería. Desde 2022, Maven proporciona inteligencia satelital a Ucrania sobre posiciones rusas, y también ha sido usado en Irak, Siria y Yemen.
Estados Unidos trabaja ahora en Skepter, una evolución de Maven, para acelerar la toma de decisiones militares en situaciones de alta velocidad.
Con la IA, empresas tecnológicas pequeñas y ágiles están ganando protagonismo frente a los contratistas tradicionales del Pentágono. Palantir, especializada en big data, tiene un valor de mercado superior al de los gigantes de defensa. Junto con Anduril, está liderando esta revolución. Palantir desarrolla software tanto para fines militares como civiles. Su fundador, Peter Thiel, es una figura destacada de la derecha estadounidense, con una visión tecno-autoritara que pone en duda la democracia. Entre sus productos están:
Immigration OS, utilizado en redadas de inmigración en EE.UU.
Gotham, sistema de análisis, alerta y predicción militar.
Metropolis y Foundry, versiones civiles de su software.
AIP, un chatbot con IA y gráficos para análisis de situación, que permite automatizar respuestas militares.
Por su parte, Anduril está revolucionando el diseño de armamento. Junto con Palantir y Northrop, ha desarrollado sistemas de guiado de misiles con IA. Su especialidad son drones autónomos con algoritmos de navegación y ataque, incluso en entornos con fuertes interferencias. Tiene cuatro familias de vehículos aéreos y tres submarinos. Su misil-dron Road Runner puede alcanzar los 1,000 km/h. En abril de 2024, firmaron un contrato con el Pentágono para suministrar 1,000 drones de apoyo a cazas.
Estas empresas también han llevado al ámbito militar su estilo de pensamiento. Anduril, por ejemplo, implementó la estrategia China 27, enfocándose solo en proyectos que puedan estar listos antes de 2027, año en que EE.UU. prevé un posible conflicto con China por Taiwán.
El cambio más radical que introducen estas compañías es la centralidad del software y su capacidad de adaptación. A diferencia del armamento tradicional —estático y desechable—, el nuevo paradigma permite constante actualización. Aun así, el Pentágono sigue aferrado al modelo clásico: menos del 1% del presupuesto militar de EE.UU. se destina al software.
La integración de IA en armamento ha generado profundas preocupaciones éticas y morales. Podría hacer que los futuros conflictos sean más rápidos y brutales. Los sistemas actuales no siempre distinguen entre un soldado herido y un francotirador, y la Cruz Roja Internacional advierte que la IA puede ser impredecible. Las redes neuronales pueden ser fácilmente confundidas: patrones impresos en objetos inocentes como farolas podrían hacer que un arma las identifique como tanques.
El debate también es legal. Si los comandantes simplemente validan objetivos sugeridos por la IA, ¿quién es responsable si algo sale mal?
Esta revolución ocurre en un contexto de rearme mundial sin precedentes. La guerra en Ucrania ha llevado a los países de la OTAN a elevar su gasto militar al 5%, tras décadas de desinversión. El gran desafío para Occidente es navegar esta transformación tecnológica, adoptando la velocidad de la IA sin perder control ético, político y legal.
1. ¿Por qué la IA se ha vuelto central en la guerra moderna?
La IA está redefiniendo el lenguaje bélico porque no solo mejora armas físicas, sino que convierte al software en el elemento clave del armamento, equiparable —o incluso superior— a tanques, misiles o aviones. En conflictos recientes, como Ucrania y Gaza, la IA ha permitido integrar drones, sensores y redes en tiempo real para ofrecer una percepción del campo de batalla sin precedentes.
2. La “uberización” de la guerra: tecnología comercial en manos militares
Empresas tecnológicas civiles —como Amazon, Microsoft y Google— están adaptando sus sistemas al ámbito militar. Este fenómeno, llamado “uberización de la guerra”, rompe con el esquema tradicional donde solo los contratistas de defensa desarrollaban tecnologías exclusivas para los ejércitos. Hoy, el mismo software que usamos para recomendaciones, búsquedas o servicios en la nube se emplea para recolectar, procesar y actuar sobre datos del campo de batalla.
3. Experimentos y aplicaciones reales
Storm Cloud (Reino Unido)
La Royal Navy probó en 2022, junto con Microsoft y AWS, la posibilidad de integrar IA comercial en sistemas militares para detectar, analizar y atacar objetivos más rápido que humanos. Aunque fue una simulación, marcó el camino de lo que hoy muchos ejércitos ya emplean en conflicto real.
La “trinidad transformadora” en Ucrania
El uso conjunto de drones, satélites y redes de sensores ha permitido recolectar datos en tiempo real pese a interferencias enemigas. IA como Gis Arta analizan esa información y generan prioridades de ataque o reabastecimiento con rapidez.
4. Lo que ocurre en la guerra de Gaza
En Israel, sistemas como Gospel y Lavender usan datos de múltiples fuentes —cámaras, redes sociales, inteligencia estatal— para identificar objetivos enemigos y presuntos terroristas. Aunque existe una verificación humana posterior, expertos advierten que los tiempos y volúmenes de datos pueden llevar a errores significativos.
5. Maven, Skepter y la inteligencia satelital de EE.UU.
Estados Unidos ha implementado sistemas como Maven, que analiza datos para identificar objetivos y coordinar ataques, con participación de empresas tecnológicas. Desde 2022, Maven ha proporcionado inteligencia satelital en Ucrania y otros teatros de conflicto. Su evolución, Skepter, busca reducir aún más los tiempos de decisión militar.
6. Empresas tecnológicas vs. contratistas tradicionales
Firmas como Palantir y Anduril lideran la revolución. Palantir se ha destacado por su software de análisis de datos en múltiples entornos, tanto militares como civiles, mientras que Anduril desarrolla drones y sistemas autónomos capaces de operar incluso con interferencias enemigas.
7. La paradoja del Pentágono: software clave pero con poco presupuesto
A pesar de la centralidad del software en la guerra moderna, menos del 1% del presupuesto de defensa de EE.UU. va destinado al software. Esto refleja una resistencia institucional a abandonar el modelo tradicional de desarrollo de armas, aunque el campo de batalla ya ha cambiado.
8. Riesgos éticos y legales
La integración de IA en armas plantea preguntas profundas:
¿Quién es responsable cuando una IA sugiere un objetivo erróneo?
¿Puede un algoritmo distinguir adecuadamente entre combatientes y civiles?
Las redes neuronales pueden confundirse fácilmente, lo que implica riesgos para civiles inocentes.
Organizaciones como la Cruz Roja Internacional han advertido sobre la imprevisibilidad de estos sistemas.
9. Rearme mundial y estrategia geopolítica
El conflicto en Ucrania ha llevado a los países de la OTAN a elevar su gasto militar tras décadas de desinversión. El desafío para Occidente es adaptarse a la velocidad tecnológica de la IA sin perder control ético, político y legal.
Conclusión
La IA no solo ha cambiado el armamento: ha alterado la forma de pensar la guerra. Desde drones autónomos hasta análisis de datos en tiempo real, la revolución tecnológica redefine quién tiene ventaja en el campo de batalla. No obstante, la adopción rápida debe equilibrarse con responsabilidad ética y legal, porque la automatización del conflicto conlleva nuevos riesgos para combatientes y civiles por igual.
Preguntas frecuentes (FAQ)
¿La IA puede tomar decisiones de ataque sin humanos?
En algunos sistemas la IA sugiere objetivos, pero aún suele haber validación humana. El grado de autonomía varía por tecnología y normativa.
¿Qué riesgos éticos tiene la IA militar?
Confusión de objetivos, errores de identificación y responsabilidad legal son algunos de los desafíos principales.
¿Qué empresas lideran la IA militar?
Además de gigantes como Amazon o Microsoft, firmas como Palantir y Anduril están a la vanguardia del software y sistemas autónomos.
¿La IA hace más letales los conflictos?
Puede acelerar las decisiones y reducir el margen de error humano, pero también puede aumentar la velocidad y letalidad de los enfrentamientos.

La inteligencia artificial se alimenta de trabajadores pobres del sur global

Detectores de IA en 2025: cómo funcionan y cuándo fallan

ChatGPT Prompt Generator: cómo usarlo en 2025

Prompt Deutsch: Was bedeutet es und wie wird es 2025 verwendet?

¿Qué es Flow AI y para qué se usa en 2025?

Claude AI: qué es y cómo se compara con ChatGPT en 2025

¿Cómo crear imágenes con IA gratis en 2025?

¿Qué es la inteligencia artificial de Google y cómo funciona en 2025?

Los mejores generadores de voz con IA en 2025

ChatGPT Wrapped Prompt: así puedes crear tu resumen anual estilo Spotify


