Hay libros que funcionan como advertencias y libros que funcionan como diagnósticos. Un mundo falaz, del coronel Ángel Gómez de Ágreda, pertenece a la segunda categoría. Aunque con el tiempo uno acaba sospechando que ambas categorías son la misma cosa.

La vieja lógica del regalo envenenado

Johann Hari lo explicó con una claridad que todavía incomoda: las plataformas digitales no son adictivas por un defecto de diseño. Lo son por un acierto de diseño. En El valor de la atención, Hari documentó cómo el modelo de negocio de Silicon Valley no vende productos ni servicios — vende tiempo de atención humana a los anunciantes. No pagamos con dinero. Pagamos con algo más escaso y más difícil de recuperar: la capacidad de concentrarnos.

Los algoritmos no son neutros en este proceso. Están optimizados para maximizar el tiempo que permanecemos en las plataformas, y han descubierto empíricamente que el contenido que genera indignación retiene mejor que el contenido que genera reflexión. No es una decisión ética ni una ideología: es la consecuencia lógica de optimizar una métrica. El resultado, sin embargo, no es solo que perdemos tiempo. Es que perdemos la capacidad de construir criterio.

Lo que Hari describía era, en el fondo, un problema de ingeniería conductual. Un sistema diseñado para capturar atención y venderla. La pregunta que quedaba abierta era: ¿quién más, más allá de los anunciantes, puede comprar ese acceso?

Del robo de atención al robo de futuro

Shoshana Zuboff dio el salto cualitativo. En La era del capitalismo de la vigilancia argumentó que las grandes plataformas habían dejado de limitarse a capturar la atención para pasar a algo bastante más ambicioso: fabricar predicciones sobre el comportamiento humano y venderlas en lo que ella llamó “mercados de futuros conductuales”. Cada búsqueda, cada pausa ante una imagen, cada cambio de ritmo en el scroll se convierte en materia prima para construir modelos capaces de anticipar lo que haremos a continuación.

No es que el producto seas tú. Es que tu futuro es el producto.

El escándalo de Cambridge Analytica hizo visible lo que ya estaba ocurriendo: los mismos mecanismos diseñados para afinar anuncios de zapatillas podían utilizarse para orientar elecciones. La lógica comercial y la lógica del poder no eran tan distintas. Zuboff lo veía, pero su análisis seguía centrado en el actor corporativo: las empresas tecnológicas occidentales como agentes de este nuevo dominio. Lo que faltaba era la dimensión geopolítica. Ahí entra Gómez de Ágreda.

Una realidad construida a escala industrial

Un mundo falaz parte de donde Zuboff se detiene. Si el capitalismo de la vigilancia convirtió la experiencia humana en materia prima, la inteligencia artificial ha convertido esa materia prima en la capacidad de construir entornos perceptivos enteros. Ya no se trata de influir en una decisión de compra ni de orientar el voto en una elección concreta. Se trata de moldear el marco desde el que los ciudadanos interpretan la realidad antes de tomar cualquier decisión.

Gómez de Ágreda lo formula con una precisión que incomoda: no vivimos en un mundo donde circulan mentiras junto a verdades, y el ciudadano debe discriminar entre unas y otras. Vivimos en un mundo donde la propia frontera entre lo real y lo fabricado se ha vuelto operativamente irrelevante. Los deepfakes no son solo falsificaciones sofisticadas; son el síntoma de un cambio más profundo en quién tiene el poder de producir realidad. Las redes sociales no son plataformas de comunicación; son el mecanismo de distribución de esa realidad fabricada a escala industrial.

Lo que hace especialmente sólido el análisis del autor es desde dónde lo escribe. Coronel del Ejército del Aire en la reserva, con experiencia como jefe de cooperación del Mando Conjunto de Ciberdefensa y como representante español en el Centro de Excelencia de Ciberseguridad de la OTAN, con años vividos como agregado de Defensa en Corea del Sur, Japón y actualmente Doha, Gómez de Ágreda escribe desde una perspectiva radicalmente descentrada de Europa. No es un académico que analiza datos a distancia. Es alguien que ha operado durante años en los nudos exactos donde se cruzan la defensa, la tecnología y la geopolítica, y que ahora mira hacia atrás y toma nota.

La verdad como campo de batalla

La pregunta que vertebra el libro no es técnica ni moral. Es estrictamente política: ¿quién define la verdad en el nuevo orden global?

Durante siglos, esa pregunta se midió en términos de territorio, recursos y capacidad militar. El siglo XX añadió la economía como dimensión del poder. Lo que Gómez de Ágreda documenta es que el siglo XXI ha incorporado una nueva: el control del entorno cognitivo en el que las poblaciones procesan la realidad.

Todas las grandes potencias compiten ya en este campo, con estrategias y recursos muy distintos. China ha construido un ecosistema digital soberano que le permite gestionar el flujo de información hacia su población y proyectar narrativas hacia el exterior con una coherencia que los sistemas occidentales no pueden igualar. No es solo censura: es arquitectura. La diferencia importa porque la censura reactiva deja rastros, genera resistencias, señala lo que prohíbe. La arquitectura, en cambio, simplemente no construye las carreteras que no quiere que nadie recorra. Rusia ha optado por una táctica diferente: la desinformación como guerra de baja intensidad, más barata y eficiente que el despliegue de tropas, orientada no tanto a imponer una narrativa como a disolver la confianza en cualquier narrativa. Si el ciudadano no puede distinguir qué es verdad, se paraliza o se radicaliza. Ambos resultados son útiles.

Estados Unidos oscila entre haber creado tecnológicamente los instrumentos de este nuevo poder y ser incapaz de regularlos dentro de sus propias fronteras. Europa, mientras tanto, invierte en ciberseguridad comprando tecnología de terceros. Es como construir una fortaleza con materiales del adversario.

El ascenso de Asia que Gómez de Ágreda describe no es solo económico. Las potencias asiáticas no han aceptado que la arquitectura de internet diseñada en Occidente —con sus presupuestos sobre la libre circulación de información— sea un bien universal neutral. La han identificado como una forma de poder disfrazada de infraestructura. Y han actuado en consecuencia, con una coherencia estratégica que lleva décadas y que Europa todavía no ha encontrado.

Lo que el libro deja ver con especial crudeza es el declive de las democracias clásicas en este contexto. Los sistemas democráticos presuponen ciudadanos capaces de procesar información y formar criterios propios. Pero esa capacidad no es un dato fijo; es una variable que puede degradarse. Y está siendo degradada. La dependencia del relato que generan las redes sociales no priva al ciudadano de información —hay más información disponible que en ningún otro momento de la historia—. Le priva de la capacidad de construir criterio a partir de ella. Es un deterioro silencioso y sin autor reconocible, lo que lo hace especialmente difícil de combatir: no hay un responsable al que señalar, solo un sistema de incentivos que produce ese resultado como efecto secundario de optimizar otra cosa. La diferencia entre ambas cosas es enorme, y el libro no la deja pasar.

Ética para humanos, instrucciones para máquinas

Uno de los argumentos más incómodos de Un mundo falaz es una distinción aparentemente sencilla: la ética es para los humanos, las instrucciones son para las máquinas.

Llevamos años hablando de ética para la inteligencia artificial: principios, marcos regulatorios, salvaguardas algorítmicas. Gómez de Ágreda propone darle la vuelta al problema. Las máquinas no tienen capacidad moral; tienen parámetros. La ética requiere un sujeto capaz de asumir consecuencias, y eso las máquinas no lo son. Lo que necesitamos no es IA ética, sino humanos éticos que decidan qué hacer con la IA.

Dicho así parece obvio. Pero las implicaciones son bastante más exigentes. Significa que la pregunta central no es cómo diseñar algoritmos que no hagan daño, sino qué tipo de humanos e instituciones queremos que controlen estos instrumentos. Que la solución al problema que el libro describe no es técnica, sino política y educativa. Y que la autonomía cognitiva —la capacidad de pensar sin que el entorno haya pre-formateado el pensamiento— no es una cualidad deseable entre otras. Es la condición de posibilidad de cualquier otra libertad.

El libro no termina con un manual de instrucciones, y sería deshonesto si lo ofreciera. Los problemas que describe no tienen solución técnica ni regulatoria suficiente por sí sola. Lo que sí ofrece es perspectiva: la capacidad de ver el tablero completo en lugar de la casilla en la que uno está parado. Y en un mundo diseñado precisamente para colonizar esa perspectiva, no es un regalo menor.