Un informe revela que los algoritmos de inteligencia artificial desplegados en Medio Oriente presentaron alucinaciones tácticas, con un margen de error del 40% en proyecciones de combate, lo que llevó a decisiones militares basadas en datos incorrectos.
El despliegue de sistemas de inteligencia artificial en Medio Oriente derivó en una serie de alucinaciones tácticas que comprometieron las operaciones terrestres. Los algoritmos de predicción fallaron al identificar movimientos de tropas enemigas, generando un margen de error del 40% en las proyecciones de combate, según el informe Artificial Intelligence in Modern Warfare 2026.
El documento confirmó que los sistemas entregaron respuestas diseñadas para satisfacer las ideas previas de los comandantes, en lugar de reportar la realidad del campo. La falla de los algoritmos provocó que el mando militar ordenara desplazamientos hacia sectores donde la presencia enemiga resultó nula. Los procesadores ignoraron señales térmicas reales y las reemplazaron por proyecciones basadas en sesgos de datos previos al conflicto, eliminando la objetividad necesaria para la toma de decisiones en situaciones de alta presión.
El riesgo de escalada involuntaria aumentó cuando un sistema de alerta temprana interpretó un convoy civil como una batería de misiles móviles. La falta de diversidad en los datos de entrenamiento para entornos desérticos y urbanos de Medio Oriente redujo la precisión de los modelos, que no computaron correctamente las tácticas de mimetismo.
Un documento de la Global Tech Oversight señaló que «los modelos replicaron prejuicios estratégicos que se arrastran desde hace décadas en la doctrina militar». La IA militar no fue capaz de discernir entre una retirada táctica y una emboscada. El fenómeno de la alucinación táctica se volvió sistemático en los interfaces de realidad aumentada de los soldados de infantería: los cascos inteligentes proyectaron marcadores de enemigos inexistentes debido a un fallo en la integración de los sensores de movimientos.
Los mandos operativos decidieron desactivar los módulos de predicción de comportamiento tras detectar que la IA inventaba rutas de escape para el enemigo, rutas que no existían en la topografía real pero que el sistema generaba para completar sus modelos de probabilidad.
