Seguridad y Conflicto: Mediano plazo

Ver en ingles

2028-2033Transformaciones en curso, acelerándose | Sistemas e Instituciones

Seguridad y Conflicto: Mediano plazo (2028-2033)

Estado Actual

Para 2028, las tendencias observables en 2026 han madurado de fenomenos emergentes a caracteristicas estructurales del entorno global de seguridad. Los sistemas de armas autonomas se despliegan en conflictos activos. Las ciberoperaciones impulsadas por IA constituyen una forma persistente y de baja intensidad de conflicto interestatal. La tecnologia deepfake ha alterado fundamentalmente el panorama informativo, y las capacidades de vigilancia impulsadas por IA se han expandido a dominios previamente considerados privados. El periodo de mediano plazo (2028-2033) representa la fase donde los despliegues iniciales se escalan, las normas se cristalizan o no logran formarse, y las consecuencias de segundo orden se hacen visibles.

Normalizacion de LAWS: Para 2028, las armas autonomas y semi-autonomas han sido utilizadas en al menos varios conflictos mas alla de los casos iniciales en Ucrania, Gaza y Libia. Los enjambres de drones -- grupos coordinados de 50-500 UAVs autonomos capaces de busqueda, identificacion y ataque colaborativo -- han pasado de la demostracion al despliegue operativo por al menos 3-5 naciones. La Iniciativa Replicator y programas similares en China, Israel y otras naciones han producido decenas de miles de plataformas autonomas desechables. El costo unitario de un dron de ataque autonomo basico ha caido por debajo de los $2,000, creando dinamicas de proliferacion similares a las vistas con los rifles de asalto y los IEDs en decadas anteriores. Actores no estatales, incluyendo grupos insurgentes y organizaciones criminales transnacionales, han adquirido o improvisado capacidades de ataque autonomo.

La ciberguerra con IA como conflicto persistente: La distincion entre operaciones ciberneticas de "tiempo de paz" y de "tiempo de guerra" se ha disuelto. Las principales potencias mantienen campañas ciberneticas continuas impulsadas por IA contra la infraestructura del adversario -- pre-posicionando acceso, mapeando vulnerabilidades y realizando recoleccion de inteligencia. Los sistemas de IA descubren vulnerabilidades de dia cero a una tasa que supera los ciclos de parcheo. La generacion y el despliegue automatizado de exploits significan que la ventana entre el descubrimiento de vulnerabilidad y la explotacion masiva se ha comprimido de semanas a horas o minutos. Los operadores de infraestructura critica -- sistemas de energia, agua, salud, financieros -- enfrentan un estado constante de asedio asistido por IA.

Consolidacion de la post-verdad: El entorno informativo de 2028-2033 se caracteriza por lo que los investigadores han denominado "colapso epistemico" en poblaciones y contextos vulnerables. La combinacion de deepfakes hiperrealistas, texto generado por IA indistinguible de la escritura humana, personas sinteticas de redes sociales operadas a escala y microdireccionamiento de desinformacion impulsado por IA ha creado un entorno donde grandes segmentos de poblaciones no pueden distinguir de manera confiable el contenido autentico del fabricado. Las tecnologias de procedencia de contenido (marcas de agua C2PA, verificacion blockchain) existen pero no han logrado una adopcion universal, dejando brechas significativas explotables por actores malintencionados.

Industrializacion de la vigilancia: La vigilancia con IA ha pasado del despliegue dirigido a sistemas a escala masiva en regimenes autoritarios e hibridos, y de la expansion controvertida al uso rutinario en muchas democracias. El reconocimiento facial en tiempo real en espacios publicos esta desplegado en las principales ciudades de mas de 50 paises. Los algoritmos de vigilancia predictiva, a pesar de los problemas documentados de sesgo, son usados por agencias de las fuerzas del orden en cientos de jurisdicciones. La recopilacion de datos del sector privado, combinada con mecanismos de acceso gubernamental, crea capacidades de vigilancia que superan cualquier cosa previamente imaginada -- no a traves de sistemas totalitarios centralizados sino a traves de la agregacion de flujos de datos comerciales a los que los gobiernos pueden acceder por coaccion legal o asociacion.

Factores Clave

1. Aceleracion de las capacidades de IA: Los sistemas de IA de 2028-2033 son sustancialmente mas capaces que los de 2025-2026. Los modelos multimodales que pueden razonar a traves de texto, imagenes, video, datos de sensores y codigo habilitan aplicaciones militares y de inteligencia que antes eran imposibles. Los sistemas de IA pueden analizar imagenes satelitales en tiempo real, correlacionar inteligencia de señales con inteligencia humana, generar planes operacionales y controlar operaciones complejas multidominio. La brecha entre lo que la IA puede hacer y lo que los humanos pueden supervisar se amplia.

2. Carrera armamentista de sistemas autonomos: La proliferacion de LAWS desencadena dinamicas clasicas de carrera armamentista. Las naciones que no desarrollan armas autonomas enfrentan desventaja estrategica frente a las que si lo hacen. Esto crea un dilema de seguridad donde la inversion defensiva de cada nacion parece amenazante para las demas, impulsando una escalada adicional. La ausencia de acuerdos de control de armas significa que no hay frenos en este ciclo.

3. Incentivo economico para la ciberofensiva: La economia del ciberdelito asistido por IA es abrumadoramente favorable para los atacantes. El phishing generado por IA, la explotacion automatizada de vulnerabilidades y el fraude asistido por deepfakes escalan a un costo marginal cercano a cero. El costo global del ciberdelito, estimado en $8-10 billones anuales para 2025, continua escalando a medida que las herramientas de IA reducen las barreras de entrada para actores criminales menos cualificados.

4. Erosion de los marcos de disuasion: La disuasion tradicional -- ya sea nuclear, convencional o cibernetica -- depende de la atribucion, la proporcionalidad y la respuesta creible. La IA complica las tres. Los ciberataques lanzados por IA pueden oscurecer la atribucion a traves de sofisticadas operaciones de falsa bandera. La velocidad del ataque de armas autonomas puede superar los calculos de proporcionalidad. Y la proliferacion de capacidades a actores no estatales socava los modelos de disuasion centrados en el estado.

5. Fragmentacion regulatoria: Para 2028-2033, el panorama regulatorio global para la IA en seguridad esta fragmentado. La UE ha implementado regulaciones civiles de IA relativamente robustas pero ha creado excepciones de seguridad nacional. EE.UU. depende de ordenes ejecutivas y orientacion sectorial en lugar de legislacion integral. China ha implementado regulaciones de IA centradas en el control social domestico mientras despliega agresivamente la IA para ventaja militar. Ningun marco internacional equivalente a los tratados de control de armas gobierna la IA en el dominio de seguridad. Esta fragmentacion crea oportunidades de arbitraje regulatorio y socava la seguridad colectiva.

Proyecciones

Riesgo de escalada de conflicto autonomo: La probabilidad de una escalada no intencionada que involucre sistemas autonomos aumenta significativamente en este periodo. Ejemplos de escenarios incluyen: sistemas de defensa autonomos de dos naciones que se enfrentan mutuamente a velocidad de maquina sin autorizacion humana; un dron de reconocimiento autonomo derribado que desencadena ciclos de escalada; o sistemas ciberneticos autonomos que lanzan ataques de represalia basados en ataques iniciales erroneamente atribuidos. La ausencia de canales de comunicacion, medidas de fomento de confianza o "reglas del camino" acordadas para la interaccion de sistemas autonomos hace que tales escenarios sean mas peligrosos que los incidentes analogos de la Guerra Fria nuclear, que al menos operaban dentro de marcos doctrinales establecidos.

Amenazas biologicas y quimicas habilitadas por IA: Para 2030-2033, los sistemas de IA seran capaces de asistir en el diseño de agentes biologicos novedosos y compuestos quimicos. Aunque los modelos de IA actuales tienen algunas salvaguardas contra proporcionar instrucciones de sintesis para patogenos peligrosos, la proliferacion de modelos de codigo abierto con menos barreras, combinada con las capacidades avanzadas en prediccion de estructura de proteinas y diseño molecular, crea riesgos emergentes de bioarmas. Las agencias de inteligencia han señalado esto como una preocupacion creciente.

Crisis diplomaticas impulsadas por deepfakes: Al menos un incidente internacional significativo desencadenado por contenido deepfake es probable en este periodo. Esto podria involucrar imagenes fabricadas de una provocacion militar, una comunicacion diplomatica falsificada o una grabacion de audio sintetica de un jefe de estado haciendo declaraciones inflamatorias. La "niebla de guerra" incluira cada vez mas informacion generada por IA diseñada para engañar a adversarios, aliados y poblaciones domesticas simultaneamente.

Reaccion y adaptacion a la vigilancia: En las naciones democraticas, la vigilancia expandida con IA desencadenara una reaccion legal y politica significativa para 2030-2033. Los desafios judiciales al reconocimiento facial, la vigilancia predictiva y la recopilacion masiva de datos llegaran a las cortes supremas y constitucionales. Algunas jurisdicciones impondran restricciones significativas; otras arraigaran las capacidades de vigilancia a traves de legislacion. Emergera un mosaico de gobernanza de la vigilancia, con variacion significativa incluso dentro de las naciones individuales.

Crisis de la fuerza laboral de ciberseguridad: La brecha de la fuerza laboral de ciberseguridad, ya estimada en 3.5 millones de puestos vacantes globalmente en 2024, se ampliara aun mas a medida que la superficie de ataque se expanda. La IA compensara parcialmente a traves de la deteccion y respuesta automatizada de amenazas, pero la necesidad de experiencia humana en la toma de decisiones estrategicas, la respuesta a incidentes y la politica superara la oferta. Esto crea una vulnerabilidad particular para naciones, empresas e instituciones mas pequeñas que no pueden competir por el talento escaso.

Evaluacion de Impacto

Deterioro de la estabilidad estrategica: El periodo de mediano plazo es probablemente el mas peligroso para la estabilidad estrategica desde el inicio de la Guerra Fria. Multiples categorias de nuevas armas (drones autonomos, ciberarmas habilitadas por IA, potencialmente bioarmas asistidas por IA) se estan desplegando simultaneamente sin normas, doctrinas o regimenes de control establecidos. La velocidad del conflicto habilitado por IA comprime los plazos de toma de decisiones, aumentando el riesgo de error de calculo. A diferencia de la Guerra Fria, donde dos adversarios principales desarrollaron un entendimiento bilateral, la carrera armamentista de IA multipolar involucra a decenas de actores con capacidades, doctrinas y tolerancias al riesgo variadas.

Erosion de la proteccion de civiles: El derecho internacional humanitario (DIH) -- las leyes de la guerra -- fue diseñado para tomadores de decisiones humanos. El principio de distincion (discriminar entre combatientes y civiles), proporcionalidad (asegurar que la ventaja militar justifique el daño colateral) y precaucion (tomar medidas factibles para minimizar el daño civil) asumen juicio humano en los puntos de decision criticos. A medida que los sistemas autonomos toman o contribuyen a las decisiones de seleccion de objetivos a escala y velocidad, la aplicacion practica del DIH se degrada. Las brechas de rendicion de cuentas se amplian -- cuando un sistema autonomo mata civiles, la cadena de responsabilidad (programador, comandante, fabricante, algoritmo) es legalmente ambigua.

Legitimidad democratica bajo presion: La combinacion de entornos informativos contaminados por deepfakes, vigilancia impulsada por IA y sistemas de seguridad autonomos crea condiciones donde la rendicion de cuentas democratica se vuelve mas dificil de ejercer. Los ciudadanos no pueden responsabilizar a los gobiernos por operaciones habilitadas por IA que no pueden ver, comprender ni verificar. El secreto inherente a las aplicaciones de seguridad nacional de la IA resiste la supervision democratica.

Transformacion de la seguridad personal: Para 2030-2033, los individuos enfrentan un entorno de seguridad donde su voz puede ser clonada a partir de segundos de audio, su imagen puede ser colocada en video fabricado, sus datos personales pueden ser agregados en perfiles detallados para dirigirles (ya sea para publicidad, manipulacion o amenaza fisica), y sus comunicaciones digitales estan sujetas a intercepcion y analisis impulsados por IA. El concepto de seguridad personal se expande de la seguridad fisica para incluir la seguridad informativa, digital y epistemica.

Efectos Interdimensionales

Geopolitica: La competencia de seguridad habilitada por IA se convierte en la caracteristica definitoria de las relaciones entre grandes potencias. La rivalidad EE.UU.-China se centra cada vez mas en la capacidad de IA, con las aplicaciones militares como el dominio de mas alto riesgo. Las potencias medias (Reino Unido, Francia, India, Japon, Corea del Sur, Australia, Israel) desarrollan capacidades de seguridad de IA de nicho y navegan estructuras de alianzas moldeadas por el acceso a la IA y la interoperabilidad. Las naciones mas pequeñas enfrentan decisiones sobre a que ecosistema de IA unirse, con implicaciones de seguridad.

Etica y regulacion: El periodo de mediano plazo es donde el exito o fracaso de la gobernanza de IA se hace evidente. Si emergen normas internacionales significativas sobre LAWS, operaciones ciberneticas y vigilancia con IA para 2030-2033, la trayectoria a largo plazo puede ser manejable. Si el vacio de gobernanza persiste, los riesgos se acumulan. La brecha entre el ritmo de desarrollo de las capacidades de IA y el ritmo del desarrollo de la gobernanza es la variable critica.

Brecha digital: Las capacidades de seguridad de IA se convierten en un nuevo eje de desigualdad global. Las naciones y poblaciones sin ciberdefensas impulsadas por IA, herramientas de contravigilancia y capacidades de deteccion de deepfakes son cada vez mas vulnerables. La brecha digital de seguridad refleja y refuerza la brecha digital economica, con las poblaciones mas vulnerables siendo las menos capaces de protegerse a si mismas.

Identidad cultural: La guerra informativa sostenida degrada la confianza social, la cohesion cultural y las narrativas de identidad compartida. Las sociedades que ya estaban polarizadas experimentan una fragmentacion que se profundiza a medida que la desinformacion impulsada por IA explota las lineas de fractura existentes con precision y escala sin precedentes. El concepto de un discurso publico compartido -- esencial para la cultura democratica -- se vuelve mas dificil de sostener.

Perspectivas Accionables

Para gobiernos e instituciones internacionales:

  • Establezca un foro internacional de seguridad de IA (analogo al proceso de la Cumbre de Seguridad Nuclear) que reuna a las principales potencias de IA para medidas de fomento de confianza, acuerdos de transparencia y protocolos de comunicacion de crisis para incidentes de sistemas autonomos.
  • Desarrolle y despliegue capacidades nacionales de ciberdefensa con IA a escala de infraestructura critica. Esto requiere asociaciones publico-privadas, estandares de seguridad obligatorios e inversion significativa.
  • Cree marcos legales que asignen rendicion de cuentas para las decisiones de armas autonomas. La ambiguedad no beneficia a nadie a largo plazo -- ni a los comandantes, ni a los fabricantes, ni al publico.
  • Invierta en infraestructura de autenticacion de contenido (C2PA y estandares similares) como servicio publico, no solo como iniciativa del sector privado.

Para los establecimientos de defensa y seguridad:

  • Mantenga un control humano significativo sobre las decisiones letales. La presion competitiva para eliminar a los humanos del circuito debe resistirse no por razones sentimentales sino porque los riesgos de escalada autonoma exceden las ventajas tacticas de la velocidad.
  • Desarrolle doctrina para el conflicto habilitado por IA que aborde la gestion de la escalada, los protocolos de desescalada y la comunicacion con los sistemas de IA del adversario.
  • Someta a pruebas de equipo rojo los sistemas autonomos extensamente antes del despliegue. Los modos de falla de la IA en entornos adversariales son poco comprendidos y potencialmente catastroficos.

Para la sociedad civil:

  • Construya capacidad tecnica independiente para auditar y evaluar los sistemas de IA militar. La supervision democratica requiere experiencia que actualmente reside casi exclusivamente dentro de los gobiernos y los contratistas de defensa.
  • Desarrolle y promueva curriculos de alfabetizacion digital que aborden el entorno informativo transformado por la IA. La alfabetizacion mediatica diseñada para la era pre-IA es insuficiente.
  • Abogue por requisitos de transparencia que cubran el uso de IA en seguridad y las fuerzas del orden, incluso cuando los detalles operacionales deban ser clasificados.

Para individuos y comunidades:

  • Desarrolle practicas de resiliencia para el entorno informativo post-verdad: verifique las afirmaciones a traves de multiples fuentes independientes, sea esceptico ante el contenido emocionalmente cargado que aparece repentinamente, comprenda las limitaciones y capacidades de la tecnologia deepfake.
  • Involucrese con la gobernanza local sobre el despliegue de vigilancia con IA. Muchas de las decisiones de vigilancia mas trascendentales se toman a nivel municipal y estatal/provincial con aporte publico minimo.
  • Proteja los datos personales como un asunto de seguridad, no solo como una preferencia de privacidad. Los datos que parecen inocuos pueden ser agregados en perfiles explotables.

Fuentes y Evidencia

  1. US DoD AI Strategy (2023) -- Marco para la adopcion militar de IA; Iniciativa Replicator para sistemas autonomos a escala. defense.gov
  2. SIPRI Emerging Military Technologies Research -- Analisis del Stockholm International Peace Research Institute sobre las tendencias de proliferacion de armas autonomas y brechas de gobernanza. sipri.org
  3. IISS Military Balance 2024 -- Evaluacion anual del International Institute for Strategic Studies de las capacidades militares globales incluyendo la integracion de IA. iiss.org
  4. RAND Corporation -- Extensa investigacion sobre doctrina de armas autonomas, riesgos de escalada de IA y estrategia de ciberseguridad. rand.org
  5. Carnegie Endowment for International Peace -- Investigacion sobre riesgo catastrofico de IA y marcos de gobernanza para IA militar. carnegieendowment.org
  6. Microsoft Digital Defense Report 2024 -- Documento ciberoperaciones de estados-nacion aumentadas por IA y el panorama de amenazas en evolucion. microsoft.com
  7. WEF Global Risks Report 2024 -- Clasifico la desinformacion de IA como principal riesgo de corto plazo; evaluo riesgos de seguridad de IA en horizonte de 2-10 anos. weforum.org
  8. Europol LLM Impact Assessment (2023) -- Analisis de como los modelos de lenguaje permiten el ciberdelito, el fraude y la ingenieria social a escala. europol.europa.eu
  9. C2PA (Coalition for Content Provenance and Authenticity) -- Estandar de la industria para la autenticacion y el rastreo de procedencia de contenido. c2pa.org
  10. Stop Killer Robots / Human Rights Watch -- Defensa continua y documentacion de la proliferacion de LAWS y el impacto humanitario. stopkillerrobots.org | hrw.org
  11. CISA AI Security Guidance -- Marco del gobierno de EE.UU. para defender la infraestructura critica contra amenazas habilitadas por IA. cisa.gov
  12. Future of Humanity Institute, Oxford -- Investigacion sobre gobernanza de IA, riesgo existencial y seguridad de sistemas autonomos. fhi.ox.ac.uk