La guerra ya no invade territorios, invade mentes.
Washington, marzo de 2026.
La guerra cognitiva impulsada por la inteligencia artificial ya está redefiniendo la geopolítica global. Durante mucho tiempo, la geopolítica obligó a mirar hacia afuera. Mapas, estrechos, rutas marítimas, minerales críticos, corredores energéticos, cuellos de botella logísticos. Ahí parecía concentrarse el núcleo duro del poder. Y, en buena medida, ahí estuvo. Pero algo cambió. O más bien, algo se desplazó. El conflicto decisivo de esta época no siempre se organiza sobre la superficie visible del mundo, sino dentro de la percepción. No en el territorio físico, al menos no primero, sino en ese espacio menos cartografiado donde una sociedad interpreta, teme, reacciona o se fragmenta. La disputa mayor ya no consiste únicamente en controlar recursos estratégicos. Consiste en intervenir marcos mentales, administrar climas emocionales y empujar conductas colectivas sin necesidad de una ocupación convencional.
Lo que en otro momento se llamó propaganda hoy parece insuficiente. No porque haya desaparecido, sino porque fue superada. La propaganda clásica operaba con grandes relatos y medios centralizados. La guerra cognitiva contemporánea funciona de otra forma. Más dispersa, más adaptativa, menos visible. No intenta necesariamente convencer a todos de una sola verdad. Le basta con erosionar el consenso. Introducir ruido. Acelerar la fatiga. Multiplicar versiones compatibles con cualquier ansiedad preexistente. En ese punto, la mentira ni siquiera necesita imponerse. Le alcanza con volver inestable la realidad.
La inteligencia artificial amplifica ese proceso de manera silenciosa pero profunda. No solo por su capacidad de generar contenido sintético creíble. Eso es apenas la superficie. Lo relevante ocurre en otro nivel. En la lectura de patrones de atención, en la identificación de vulnerabilidades emocionales, en la segmentación de audiencias, en la experimentación constante de narrativas. Miles de variantes, probadas en tiempo real. Ajustadas según reacción. Optimizadas para provocar adhesión, rechazo, saturación o indiferencia. No se trata solo de informar o desinformar. Se trata de modular la atención. Y cuando la atención de una sociedad se vuelve programable, el problema deja de ser comunicacional. Empieza a ser estructural.
Desde ahí, los vectores geopolíticos actuales adquieren otra densidad. La rivalidad entre grandes potencias ya no puede entenderse sin el dominio tecnológico. Estados Unidos protege su capacidad computacional como un activo estratégico. China integra la inteligencia artificial en su proyección de poder, tanto interna como externa. Europa intenta regular sin quedar rezagada. Rusia e Irán operan en zonas de influencia donde la distorsión informativa forma parte del repertorio. Al mismo tiempo, corporaciones tecnológicas administran espacios de conversación global que, en ocasiones, resultan más influyentes que no pocos Estados. No hay una sola lógica. Hay superposición. Intereses cruzados. Capas de poder que no siempre coinciden ni se subordinan entre sí.
Desde la psicología y la sociología, el fenómeno revela otra dimensión. Las sociedades no solo consumen información. Construyen sentido. Cuando ese proceso es intervenido de manera constante por sistemas diseñados para maximizar reacción, el entorno se vuelve más ansioso, más polarizado, más reactivo. La psiquiatría social empieza a observar algo relevante. No es únicamente desinformación. Es desgaste. Fatiga cognitiva. Desconfianza acumulada. Una relación cada vez más inestable con la realidad compartida.
La guerra cognitiva no destruye primero edificios. Desgasta umbrales internos. Erosiona concentración, fragmenta memoria, reduce tolerancia a la complejidad. Una sociedad expuesta de forma prolongada a saturación informativa termina agotada. Y una ciudadanía agotada no solo se equivoca más. También busca respuestas más rápidas, más simples, más emocionales. Ahí se abre una grieta. No necesariamente hacia una ideología específica, sino hacia cualquier estructura que prometa orden frente al caos percibido.
Por eso la disputa por semiconductores, datos, infraestructura digital y modelos de inteligencia artificial no es solo económica. Tampoco únicamente militar. Es una disputa por la capacidad de estructurar lo visible. De jerarquizar lo relevante. De influir en lo creíble. El petróleo marcó el siglo XX. El cómputo y la atención están marcando este siglo de una forma menos visible, pero más profunda.
La respuesta no puede ser superficial. No bastará con etiquetar contenidos o repetir discursos sobre alfabetización digital. Lo que está en juego es una noción más exigente de soberanía. Una democracia sólida no solo organiza elecciones. También protege la integridad cognitiva de sus ciudadanos. Eso implica regulación, transparencia, educación crítica. Pero también implica reconocer que el problema no es únicamente tecnológico. Es humano.
El dilema es incómodo. La humanidad creó herramientas para ampliar su inteligencia y ahora enfrenta la posibilidad de delegarles la administración de su atención. Esa transición no ocurre de manera abrupta. Se presenta como comodidad, personalización, eficiencia. La colonización contemporánea no necesita imponerse. Se integra. No irrumpe. Se normaliza. Y cuando una sociedad comienza a confundir autonomía con comportamiento inducido, el problema deja de ser visible.
Quizá ahí radica la verdadera tensión de esta época. No en si la inteligencia artificial dominará el mundo, sino en si advertiremos a tiempo hasta qué punto ya está moldeando la forma en que lo percibimos.
Mario López Ayala, PhD
Investigador y director de Phoenix24