Llevo días dándole vueltas a una idea que parece contradictoria: cuanto más terreno gana la automatización en nuestra vida profesional, más valioso —y escaso— se vuelve aquello que no puede ser procesado por un chip de silicio. No me refiero a la creatividad entendida como un arrebato artístico, sino a algo mucho más mundano y, a la vez, más complejo: el juicio. En un mundo donde generar contenido, código o diagnósticos es una mercancía de bajo coste, saber qué hacer con todo eso se ha convertido en el nuevo cuello de botella del progreso. Lo paradójico es que no lo hemos visto venir: durante décadas hemos automatizado precisamente las tareas que más esfuerzo nos costaban, sin advertir que en ese esfuerzo estaba, en parte, el sentido.

La paradoja de la velocidad estéril

Hemos construido herramientas que nos permiten ir más rápido que nunca, pero rara vez nos detenemos a preguntar si la dirección es la correcta. El filósofo Brian Cantwell Smith, en su libro The Promise of Artificial Intelligence: Reckoning and Judgment (MIT Press, 2019), ofrece una distinción que merece detenerse en ella: la diferencia entre reckoning —el cálculo— y judgment —el juicio—. El primero es la capacidad de manipular datos y reconocer patrones a una velocidad que nos supera. El segundo es algo radicalmente distinto: una forma de pensamiento deliberativo, arraigado en un compromiso ético y en una responsabilidad ante la situación concreta en la que uno se encuentra. Kenan Malik retomó esta distinción en su ensayo Artificial Intelligence and Human Judgment para señalar algo que las demostraciones de IA raramente admiten: las máquinas pueden calcular con una precisión que nos desafía, pero no pueden darle importancia a lo que calculan. El juicio no es solo procesar; es saber qué está en juego.

La inteligencia artificial actúa a menudo como un espejo retrovisor perfecto. Se nutre de lo que ya hemos hecho y dicho —exactamente lo que McLuhan describía como nuestra tendencia a mirar el presente a través de los objetos del pasado reciente. Ted Chiang lo formuló con una imagen memorable en ChatGPT Is a Blurry JPEG of the Web (The New Yorker, 2023): los grandes modelos de lenguaje son una compresión de todo lo que hemos escrito, como un archivo JPEG que preserva la apariencia general pero pierde los detalles precisos. Cuando pedimos a una IA que razone, lo que obtenemos es una aproximación estadísticamente plausible, no un acto genuino de pensamiento. La diferencia, en términos prácticos, puede parecer pequeña. En términos de responsabilidad, es abismal.

Shannon Vallor desarrolla este argumento con mayor profundidad filosófica en The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking (Oxford University Press, 2024). Vallor advierte que los sistemas de IA no son tecnologías neutrales: son espejos que proyectan, con apariencia de objetividad, nuestros propios sesgos, nuestros datos históricos, nuestras jerarquías implícitas. El error de Narciso no fue admirar la belleza; fue confundir el reflejo con una entidad real. El riesgo equivalente con la IA no es que las máquinas nos superen, sino que nos perdamos en ese reflejo y dejemos de preguntarnos quién lo genera y en beneficio de quién. La ilusión de neutralidad es, probablemente, el riesgo más subestimado de esta tecnología.

De la dictadura del «cómo» a la soberanía del «por qué»

Durante décadas, nuestro sistema educativo y nuestras organizaciones han premiado el dominio técnico: el cómo. Aprender un lenguaje de programación, dominar un proceso, ejecutar un método con precisión. Pero si la IA puede resumir, razonar y asistir en la toma de decisiones —como documenta el informe Superagency in the Workplace de McKinsey (enero de 2025), que constata que el mayor obstáculo para escalar la IA en las empresas no es tecnológico sino de liderazgo y criterio—, el valor diferencial se desplaza. Ya no está en quien ejecuta mejor, sino en quien decide qué problemas merecen realmente ser resueltos. La ejecución se convierte en un coste marginal; el criterio, en el activo escaso.

En otro ensayo para The New Yorker, Will A.I. Become the New McKinsey?, Chiang plantea una pregunta que incomoda: ¿puede la IA convertirse en un mecanismo de lavado de responsabilidad, igual que las grandes consultoras han servido históricamente para que las organizaciones externalicen decisiones incómodas? Cuando una empresa delega en un algoritmo una decisión que afecta a personas, la responsabilidad queda diluida en el código. El juicio desaparece, pero también desaparece el sujeto responsable de ejercerlo. Esta es una forma de eficiencia que debería preocuparnos más que el desempleo tecnológico: no la pérdida de puestos de trabajo, sino la erosión silenciosa de la agencia moral.

Tobias Rees, en su conversación con Noema Magazine, Why AI Is a Philosophical Rupture (2025), va más lejos al argumentar que la IA no es simplemente una herramienta nueva, sino un acontecimiento filosófico en el sentido más estricto: nos obliga a abandonar los conceptos con los que hasta ahora hemos entendido la inteligencia, el aprendizaje y la contribución humana. En ausencia de nuevos conceptos, continúa Rees, seguiremos comprendiendo lo nuevo en términos de lo viejo. Y eso, en un entorno de cambio tan acelerado, nos condena a décadas de confusión. No porque la tecnología avance demasiado rápido, sino porque nuestro vocabulario filosófico para pensarla avanza demasiado lento. Lo que nos falta no es potencia computacional: nos faltan preguntas mejores.

El aprendizaje como ancla en el cambio civilizatorio

Estamos ante algo más que una transformación digital. Henry Kissinger, Eric Schmidt y Daniel Huttenlocher argumentan en The Age of AI (Little, Brown and Company, 2021) que esta tecnología modifica la forma en que los humanos nos concebimos como contribuyentes a la sociedad. Si la máquina puede ejecutar tareas complejas con una fiabilidad razonable, la pregunta por el sentido del trabajo —y por el sentido del aprendizaje— se vuelve urgente e ineludible. No como amenaza existencial, sino como invitación a la clarificación: ¿qué queremos realmente desarrollar en una persona cuando decimos que ha aprendido algo?

La respuesta convencional ha sido acumular capacidades técnicas. La respuesta que empieza a imponerse es más difícil de medir pero más resistente a la obsolescencia: desarrollar el criterio. Aprender a tolerar la ambigüedad sin colapsar en la primera respuesta disponible. Aprender a contextualizar: por qué esto importa ahora, a quién beneficia, qué costes ocultos tiene. Aprender a distinguir entre una pregunta que tiene solución y una pregunta que exige negociación de valores. Estas son habilidades que un sistema educativo orientado a la eficiencia ha tratado sistemáticamente como secundarias. La ironía es que son precisamente las que la automatización no puede replicar, y las que mayor demanda van a concentrar en las próximas décadas.

El mayor peligro no es que las máquinas empiecen a pensar como nosotros, sino que nosotros terminemos pensando como máquinas: buscando siempre el resumen más corto, la conclusión más indolora, la certeza más inmediata. La IA nos ofrece ese camino con una generosidad casi ilimitada. Cada vez que aceptamos sin cuestionar una respuesta generada automáticamente, cedemos un poco más de ese músculo que nos permite decir: espera, esto no cuadra, hay algo que no hemos visto. Ese músculo, como todos, se atrofia si no se usa.

Si el valor real se está desplazando del proceso al propósito, el primer paso es recuperar el derecho a dudar y a pensar despacio en un mundo que exige respuestas instantáneas. No como nostalgia, sino como estrategia. No porque la lentitud sea virtuosa en sí misma, sino porque los problemas más importantes —casi siempre— solo se revelan cuando uno se toma el tiempo de mirarlos de verdad.

¿Estamos preparados para asumir que nuestra mayor contribución ya no será el esfuerzo, sino el criterio?