Seguridad y Conflicto: Corto plazo (2026-2028)
Estado Actual
La integracion de la inteligencia artificial en los dominios de seguridad, defensa y conflicto se ha acelerado de experimental a operativa en multiples frentes. A principios de 2026, la IA ya no es una consideracion futura para los planificadores militares, las agencias de inteligencia, las fuerzas del orden y los actores maliciosos -- es un elemento activo que moldea el panorama de amenazas y la postura defensiva de las naciones en todo el mundo.
Sistemas de Armas Letales Autonomas (LAWS): El debate sobre las armas autonomas ha pasado de hipotetico a urgente. La Estrategia de IA del Departamento de Defensa de EE.UU. de 2023 se comprometio a acelerar la adopcion de IA en la guerra, con la Iniciativa Replicator apuntando a desplegar miles de drones y sistemas autonomos para 2025-2026. El programa priorizo plataformas autonomas pequeñas y desechables -- drones que pueden operar en entornos disputados con supervision humana reducida. El uso extensivo de Israel de sistemas de seleccion de objetivos asistidos por IA en Gaza (2023-2024), que segun los informes incluyo los sistemas "Lavender" y "Gospel" que generaron recomendaciones de objetivos a escala, llevo a los LAWS de la teoria a la aplicacion documentada en el campo de batalla. Estos sistemas supuestamente señalaron decenas de miles de objetivos potenciales, con tiempos de revision humana medidos en segundos en lugar de la deliberacion cuidadosa prevista por los marcos de derecho internacional humanitario.
La municion merodeadora Kargu-2 de Turquia, que un informe de la ONU de 2021 sugirio que pudo haber atacado autonomamente objetivos en Libia, sigue siendo un caso historico. Para 2025-2026, multiples naciones incluyendo EE.UU., China, Rusia, Israel, Corea del Sur, Turquia y el Reino Unido estan desarrollando o desplegando sistemas con autonomia creciente en la identificacion y las decisiones de ataque de objetivos. Mas de 30 paises tienen ahora programas activos de IA militar.
Ciberoperaciones impulsadas por IA: El panorama de ciberseguridad ha sido transformado por la IA tanto en ofensiva como en defensa. El Digital Defense Report de Microsoft (2024) documento un aumento pronunciado de los ciberataques aumentados por IA, incluyendo campañas de phishing generadas por modelos de lenguaje que son significativamente mas convincentes que los intentos tradicionales. Actores estatales -- notablemente grupos afiliados con Rusia, China, Iran y Corea del Norte -- han sido observados usando IA para acelerar el descubrimiento de vulnerabilidades, elaborar ataques de ingenieria social dirigidos y automatizar el reconocimiento. Mientras tanto, las empresas de ciberseguridad estan desplegando deteccion de amenazas impulsada por IA, identificacion de anomalias y sistemas de respuesta automatizada. El equilibrio ofensa-defensa se esta inclinando: la IA reduce la barrera de habilidades para los atacantes mientras que los defensores deben proteger superficies de ataque en constante expansion.
Deepfakes y guerra informativa: El ciclo electoral global de 2024 -- el mas grande de la historia, con mas de 4 mil millones de personas en paises celebrando elecciones -- sirvio como prueba de estres para la desinformacion generada por IA. Audio y video deepfake aparecieron en elecciones en India, Indonesia, Bangladesh, Eslovaquia, el Reino Unido y EE.UU. En Eslovaquia, una grabacion de audio fabricada de un candidato liberal supuestamente discutiendo la manipulacion de votos circulo dias antes de la eleccion de 2023, sin tiempo suficiente para una desmentida efectiva. Para 2025-2026, las herramientas para crear video deepfake fotorrealista, clones de voz y texto sintetico son ampliamente accesibles a traves de aplicaciones de nivel consumidor. El costo marginal de producir desinformacion ha colapsado hacia cero.
Expansion de la vigilancia: La vigilancia impulsada por IA se ha expandido dramaticamente. La infraestructura de vigilancia integrada de China -- que combina reconocimiento facial, analisis de la marcha, monitoreo de redes sociales y algoritmos de vigilancia predictiva -- sigue siendo la mas extensa, pero capacidades similares se estan extendiendo globalmente. Mas de 75 paises han adoptado tecnologias de vigilancia con IA, muchos comprando sistemas de empresas chinas como Huawei, Hikvision y Dahua, o de empresas occidentales como Palantir, Clearview AI y Cellebrite. En las naciones democraticas, el despliegue de la vigilancia con IA a menudo procede a traves de la adquisicion de las fuerzas del orden sin la supervision legislativa adecuada.
Factores Clave
1. Competencia entre grandes potencias: La rivalidad tecnologica EE.UU.-China es el principal acelerante del desarrollo de IA militar. Ambas naciones enmarcan el dominio de la IA como existencial para la seguridad nacional. La Orden Ejecutiva de IA de 2023 de EE.UU. y la Estrategia de IA del DoD posicionan explicitamente la IA como critica para mantener la ventaja militar. La estrategia de fusion militar-civil de China integra la investigacion privada de IA directamente en las aplicaciones de defensa. Rusia, aunque tecnologicamente rezagada, ha invertido en sistemas de combate autonomos y guerra electronica habilitada por IA.
2. Ventaja asimetrica para actores no estatales: La IA democratiza capacidades previamente reservadas para estados bien dotados de recursos. Actores no estatales, organizaciones terroristas y redes criminales ahora pueden acceder a herramientas de IA para reconocimiento, generacion de propaganda, creacion de deepfakes y operaciones ciberneticas. Drones comercialmente disponibles modificados con seleccion de objetivos asistida por IA han aparecido en conflictos que involucran actores no estatales en Ucrania, Siria y Myanmar.
3. Proliferacion de doble uso de IA comercial: Los mismos modelos de lenguaje que impulsan los chatbots de atencion al cliente pueden generar correos electronicos de phishing convincentes, sintetizar desinformacion o asistir en la planificacion de ataques. Los modelos de IA de codigo abierto, una vez liberados, no pueden ser retirados. La naturaleza de doble uso de la tecnologia de IA hace que los marcos tradicionales de control de armas -- diseñados para armas fisicas -- sean inadecuados.
4. Vacio de gobernanza: A pesar de años de discusion en la Convencion sobre Ciertas Armas Convencionales (CCW) de la ONU, ningun tratado internacional vinculante regula los LAWS. El proceso de la CCW ha sido paralizado por la oposicion de las principales potencias militares, particularmente EE.UU., Rusia e India. El EU AI Act (2024) aborda algunos riesgos civiles de IA pero no cubre las aplicaciones militares. No existe un equivalente a la Convencion sobre Armas Quimicas o al Tratado de No Proliferacion Nuclear para las armas de IA.
5. Velocidad de la toma de decisiones en conflicto: Los sistemas de IA operan a velocidad de maquina. En el conflicto cibernetico, los ataques lanzados por IA pueden ejecutarse en milisegundos. En escenarios de defensa aerea, la ventana de decision para la intercepcion puede ser de segundos. Esto crea presion para eliminar a los tomadores de decisiones humanos del circuito, no porque los comandantes lo deseen, sino porque el tempo del conflicto habilitado por IA puede no permitir la deliberacion humana.
Proyecciones
Proliferacion de LAWS (2026-2028): Al menos 10-15 naciones desplegaran sistemas de armas operativamente autonomos (con diversos grados de supervision humana) durante este periodo. Los pequeños drones autonomos capaces de identificar y atacar objetivos seran la categoria mas comun. Las capacidades de enjambre -- donde docenas o cientos de drones se coordinan sin control humano individual -- pasaran de la demostracion al despliegue. El precio de los drones de ataque autonomos basicos caera por debajo de los $5,000 por unidad, haciendolos accesibles para una amplia gama de actores estatales y no estatales.
Escalada cibernetica: Los exploits de dia cero generados por IA aumentaran en frecuencia a medida que los sistemas de IA se vuelvan capaces de descubrir y armamentizar vulnerabilidades de software mas rapido de lo que pueden ser parcheadas. El tiempo promedio entre el descubrimiento de vulnerabilidad y la explotacion se comprimira de semanas a horas. La infraestructura critica -- redes electricas, sistemas de agua, redes financieras, sistemas de salud -- enfrentara un riesgo elevado. Al menos un ciberataque importante asistido por IA contra infraestructura critica en una nacion del G20 es probable dentro de esta ventana.
Normalizacion de los deepfakes: Para 2028, la tecnologia de deteccion de deepfakes se quedara atras respecto a las capacidades de generacion. El "dividendo del mentiroso" -- donde las imagenes reales pueden ser descartadas como potencialmente falsas -- erosionara la confianza en la evidencia de video y audio en los procedimientos legales, el periodismo y el discurso publico. Los marcos de integridad electoral tendran dificultades para adaptarse.
Expansion gradual de la vigilancia en democracias: La vigilancia predictiva, la vigilancia biometrica en fronteras y espacios publicos, y el analisis de inteligencia asistido por IA se expandiran en las naciones democraticas, a menudo justificados por el terrorismo o la aplicacion de las leyes de inmigracion. Los desafios legales se retrasaran respecto al despliegue en 1-3 anos.
Evaluacion de Impacto
Estabilidad militar y estrategica: La introduccion de armas autonomas crea nuevos riesgos de inestabilidad. Los sistemas que operan mas rapido que la toma de decisiones humana pueden causar espirales de escalada. La falta de normas establecidas para la IA en conflicto (comparables a la doctrina de disuasion nuclear) significa que los riesgos de error de calculo estan elevados. El periodo 2026-2028 representa una ventana particularmente peligrosa antes de que se establezcan normas y salvaguardas.
Daño civil: Los sistemas de seleccion de objetivos asistidos por IA corren el riesgo de aumentar las bajas civiles a traves del sesgo algoritmico (identificar erronea a civiles como combatientes), problemas de calidad de datos (depender de bases de datos de inteligencia defectuosas) y tiempo reducido de deliberacion humana. El patron documentado de Gaza sugiere que la IA puede habilitar la seleccion masiva de objetivos a escala mientras crea una ilusion de precision.
Erosion democratica: La combinacion de deepfakes, desinformacion generada por IA y vigilancia expandida amenaza los procesos democraticos. Los ciudadanos enfrentan un entorno informativo cada vez mas contaminado donde distinguir la verdad de la fabricacion requiere experiencia y esfuerzo que la mayoria de las personas no puede dedicar a cada afirmacion que encuentra. Mientras tanto, las herramientas de vigilancia ostensiblemente desplegadas por seguridad pueden ser reutilizadas para el control politico.
Seguridad individual: Las herramientas de ingenieria social impulsadas por IA, la clonacion de voz para fraude y las herramientas de hacking automatizado significan que los ciudadanos individuales enfrentan riesgos elevados de seguridad personal. Los ataques de compromiso de correo electronico empresarial usando clones de voz generados por IA de ejecutivos ya han resultado en casos de fraude multimillonarios.
Efectos Interdimensionales
Geopolitica: La competencia en IA militar refuerza la rivalidad entre grandes potencias y corre el riesgo de dinamicas de carrera armamentista. Las capacidades ciberneticas habilitadas por IA se convierten en un vector primario de conflicto interestatal por debajo del umbral de la guerra cinetica. Las naciones que se rezagan en las capacidades militares de IA enfrentan vulnerabilidad estrategica, impulsando mas inversion y competencia.
Etica y regulacion: El dominio de seguridad es donde los marcos eticos de IA enfrentan sus pruebas mas severas. La tension entre ventaja militar y restricciones eticas, entre seguridad y libertades civiles, entre innovacion y precaucion, es mas aguda aqui. Los esfuerzos regulatorios en el espacio civil de IA (EU AI Act, ordenes ejecutivas de EE.UU.) han creado en gran medida excepciones de seguridad nacional, creando un vacio de gobernanza precisamente donde los riesgos son mas altos.
Brecha digital: Las capacidades de seguridad de IA estan distribuidas de manera desigual a nivel global. Las naciones y poblaciones sin ciberdefensas sofisticadas son las mas vulnerables a los ataques habilitados por IA. La brecha de vigilancia -- donde los estados poderosos pueden monitorear a los estados mas debiles y a sus ciudadanos -- exacerba las asimetrias de poder existentes.
Identidad cultural: La guerra informativa apunta a narrativas culturales, identidades y cohesion social. La desinformacion generada por IA a menudo esta diseñada para explotar lineas de fractura culturales -- tensiones raciales, divisiones religiosas, polarizacion politica. La erosion de los fundamentos epistemologicos compartidos (la capacidad de ponerse de acuerdo sobre que es real) amenaza el patrimonio cultural comun.
Perspectivas Accionables
Para gobiernos y responsables de politicas:
- Presione urgentemente por normas internacionales sobre LAWS, incluso si un tratado vinculante sigue siendo esquivo. Las medidas de fomento de confianza, los requisitos de transparencia y los codigos de conducta pueden reducir el riesgo en el corto plazo.
- Invierta en ciberdefensa impulsada por IA al menos tan agresivamente como en capacidades ofensivas. La proteccion de infraestructura critica debe ser elevada a prioridad de seguridad nacional.
- Exija evaluaciones de transparencia e impacto para los despliegues de vigilancia con IA por parte de las fuerzas del orden. Establezca organismos de supervision independientes con experiencia tecnica.
- Desarrolle marcos de respuesta rapida para incidentes de deepfakes durante elecciones, incluyendo acuerdos previos entre organizaciones de medios y plataformas para protocolos de verificacion.
Para las empresas tecnologicas:
- Implemente salvaguardas robustas contra el uso indebido de herramientas de IA para la guia de armas, la identificacion de objetivos y la planificacion de ataques. Someta los productos a pruebas de equipo rojo especificamente para escenarios de uso indebido relevantes para la seguridad.
- Invierta en tecnologias de procedencia de contenido (C2PA, marcas de agua) para habilitar la autenticacion de medios reales en lugar de enfocarse unicamente en la deteccion de falsificaciones.
- Coopere con las fuerzas del orden en las capacidades de fraude y ciberataque habilitados por IA mientras mantiene limites claros contra la facilitacion de la vigilancia masiva.
Para la sociedad civil e individuos:
- Apoye y financie la investigacion independiente de seguridad en IA y el periodismo. La comprension publica de estos temas es critica para la rendicion de cuentas democratica.
- Desarrolle practicas de higiene digital personal: autenticacion multifactor, escepticismo hacia comunicaciones no solicitadas (incluso si suenan como contactos conocidos) y habilidades de alfabetizacion mediatica.
- Participe en los procesos de politica. Las decisiones que se estan tomando en 2026-2028 sobre armas autonomas, vigilancia e integridad de la informacion moldearan decadas de resultados de seguridad.
Fuentes y Evidencia
- US DoD AI Strategy (2023) -- Se comprometio a acelerar la adopcion de IA para la guerra y la ventaja de decisiones. La Iniciativa Replicator apunta al despliegue de sistemas autonomos. defense.gov
- Stop Killer Robots Campaign -- Coalicion de mas de 250 ONGs en 70 paises que aboga por la regulacion de armas autonomas. Rastrea el desarrollo de LAWS a nivel mundial. stopkillerrobots.org
- Human Rights Watch -- Documento los riesgos de las armas autonomas y abogo por una prohibicion preventiva. Informes sobre la seleccion de objetivos asistida por IA en zonas de conflicto. hrw.org
- UN CCW Group of Governmental Experts on LAWS -- Discusiones multilaterales en curso desde 2014; ningun acuerdo vinculante alcanzado. Las principales potencias militares resisten restricciones vinculantes. documents.un.org
- Europol Report on LLM Impact on Law Enforcement (2023) -- Evaluo como los modelos de lenguaje permiten el fraude, la ingenieria social y el ciberdelito a escala. europol.europa.eu
- RAND Corporation -- Multiples estudios sobre IA y seguridad nacional, riesgos de armas autonomas y guerra informativa. rand.org
- NIST AI Risk Management Framework -- Marco del organismo de estandares de EE.UU. para IA confiable, referenciado en la Orden Ejecutiva 14110. nist.gov
- CISA AI Security Guidance -- Guia de la US Cybersecurity and Infrastructure Security Agency sobre riesgos de IA para la infraestructura critica. cisa.gov
- Microsoft Digital Defense Report 2024 -- Documento ciberataques aumentados por IA por parte de actores estatales y grupos de ciberdelincuentes. microsoft.com
- Brookings Institution -- Analisis de deepfakes y conflicto internacional, implicaciones de la guerra informativa. brookings.edu
- Carnegie Endowment for International Peace -- Investigacion sobre IA y riesgo catastrofico, incluyendo aplicaciones militares. carnegieendowment.org
- WEF Global Risks Report 2024 -- Clasifico la desinformacion generada por IA como el principal riesgo global para el periodo 2024-2026. weforum.org