Llevamos un par de años viviendo en un anuncio permanente de la inteligencia artificial. Todo va a cambiar, todo será exponencial, todo será más eficiente, y si no te subes al carro hoy mismo, mañana serás un analfabeto digital condenado al destierro laboral.

En medio de este ruido aparecen Emily M. Bender y Alex Hanna con The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want, y vienen a decir, básicamente: calma. No, la IA no es mágica. No, no está a punto de convertirse en una superinteligencia consciente. Y no, tampoco estamos obligados a aceptar todo lo que propone Big Tech como si fuera una ley de la naturaleza.
Es un libro que no se lee como un paper ni como un panfleto militante, sino como una conversación larga, afilada y bastante divertida con dos personas que llevan años desmontando mitos desde dentro del sistema.
Quiénes son Bender y Hanna, y por qué merece la pena escucharles
Emily M. Bender es lingüista, profesora en la Universidad de Washington y coautora del famoso artículo de los “stochastic parrots”, ese texto que se atrevió a decir en voz alta que los grandes modelos de lenguaje no “piensan”, sino que estadísticamente repiten patrones de texto.
Alex Hanna es socióloga, trabajó en ética de IA en Google (salió mal, como suele pasar con quien levanta la mano) y ahora dirige la investigación en el Distributed AI Research Institute (DAIR), el proyecto impulsado por Timnit Gebru tras su propia salida de Google.
Las dos llevan tiempo trabajando juntas, entre otras cosas en el podcast Mystery AI Hype Theater 3000, donde se dedican a destripar titulares exagerados, notas de prensa infladas y discursos mesiánicos sobre la IA. El libro es, en cierto sentido, la destilación de todo ese trabajo: coger el hype, trocearlo y enseñar las costuras.
The AI Con ronda las 280 páginas y ofrece una crítica sistemática al discurso dominante alrededor de la IA, sin perder el sentido del humor.
La tesis central: la IA como máscara de poder, no como revolución mágica
El libro arranca con una pregunta muy sencilla: cuando hablamos de “IA” en titulares, ¿de qué estamos hablando exactamente? ¿De máquinas que entienden el mundo? ¿De una nueva forma de vida digital? ¿De una especie de oráculo que lo sabe todo?
La respuesta de Bender y Hanna es bastante menos épica: en la mayoría de casos, hablamos de sistemas estadísticos de predicción entrenados con cantidades obscenas de datos, construidos sobre mucho trabajo humano mal pagado, y envueltos en una capa de marketing que exagera sus capacidades hasta el delirio.
La IA, dicen, funciona como “máquina de medios sintéticos”: genera texto, imágenes, audio y vídeo plausibles, pero sin comprensión ni responsabilidad. Lo que sí tiene clarísimo es quién gana con todo esto:
- Las grandes plataformas, que consolidan su poder económico y político.
- Las empresas que sustituyen trabajo cualificado por automatizaciones opacas.
- Los inversores encantados con cualquier narrativa que prometa “escala infinita”.
El “con” del título es un juego de palabras: con de “cuento / estafa”, pero también de “relato”. Es la historia que nos venden sobre la IA para justificar decisiones que tienen bastante más que ver con el negocio que con el bien común.
Cuatro mitos muy cómodos para Big Tech
El libro va recorriendo, capítulo a capítulo, una serie de mitos que suenan familiares a cualquiera que lleve meses tragando titulares sobre IA.
1. “La IA piensa”
Bender y Hanna vuelven a su idea de los “loros estocásticos”: los modelos de lenguaje no entienden, no razonan, no tienen intención. Lo que hacen es calcular qué viene después de qué, apoyándose en patrones gigantescos de texto previo.
Tratar esto como “inteligencia” no es sólo un error conceptual; es una forma de blanquear decisiones muy humanas: qué datos usamos, qué sesgos arrastramos, qué objetivos optimizamos. Cuando llamas “inteligente” a lo que en el fondo es un sistema estadístico, estás escondiendo la parte incómoda de la historia.
2. “La IA es inevitable”
Otro mito muy cómodo: “esto va tan rápido que no se puede regular; mejor no molestar, o nos quedamos atrás”. El libro dedica bastante espacio a desmontar ese argumento con ejemplos de otros sectores (energía, fármacos, finanzas) donde sí aceptamos límites, normas y controles, precisamente porque hay mucho en juego.
La idea de inevitabilidad es una herramienta política. Se usa para desactivar la crítica y acelerar la adopción sin pasar por el filtro democrático. Si todo es “inevitable”, ya no hay decisiones, solo adaptación resignada.
3. “La IA es neutral”
Aquí la crítica es directa: no existe tecnología neutral cuando los datos reflejan desigualdades históricas, cuando las decisiones las toman equipos homogéneos en unas pocas ciudades del mundo y cuando los modelos se usan en contextos como vigilancia, selección de personal o justicia penal.
La neutralidad es, de nuevo, un relato muy útil: sirve para decir “es el algoritmo, no yo” cuando se discrimina, se precariza o se vigila. Si “la IA lo ha decidido”, nadie parece responsable.
4. “La IA es el nuevo fuego / la nueva electricidad / más importante que Internet”
La hipérbole técnica cumple otra función: tapar los costes. Coste energético y climático de entrenar modelos gigantes. Coste laboral de la moderación de contenidos, los etiquetadores y toda la cadena humana invisible. Coste social de inundar el ecosistema informativo con contenido sintético de calidad dudosa.
The AI Con no niega que haya usos interesantes o útiles de la IA. Lo que discute es que el saldo global sea necesariamente positivo si dejamos las riendas en las mismas manos de siempre.
IA y trabajo: la degradación silenciosa de profesiones
Uno de los hilos más potentes del libro es el impacto sobre el trabajo. No en el sentido vago de “desaparecerán X millones de empleos”, sino en algo más concreto y, quizá, más inquietante: la degradación de profesiones enteras.
Bender y Hanna recogen ejemplos de:
- Redacciones que sustituyen periodistas junior por sistemas de generación automática de contenidos.
- Servicios de atención al cliente que pasan de personas a chatbots mal diseñados.
- Trabajos de cuidado y atención donde se pretende meter asistentes conversacionales como solución barata.
Para mucha gente, la IA no viene a “liberarla de tareas repetitivas”, sino a trocear su trabajo, externalizar lo más precario y automatizar justo la parte que servía de entrada a una carrera profesional.
De fondo, sobrevuela otra preocupación: si llenamos el mundo de basura sintética, la calidad de los datos –y, por extensión, de nuestros sistemas– se hunde. Es el ecosistema informativo el que se degrada, no sólo algunos oficios.
No es un libro “anti IA”, es un libro anti-hype
Un matiz importante: el libro no es una oda al Luddismo. Bender y Hanna no dicen “tirad los ordenadores a la basura”, ni “prohibamos todo”. De hecho, son bastante críticas con los discursos apocalípticos tipo “la IA nos va a extinguir”, porque acaban haciendo el mismo favor que el hype positivo: desviar la atención.
Mientras unos hablan de AGI, consciencia artificial y escenarios de ciencia ficción, pasan mucho más desapercibidas las historias reales:
- Sistemas de scoring que penalizan a colectivos vulnerables.
- Herramientas de vigilancia laboral cada vez más intrusivas.
- Decisiones públicas basadas en modelos opacos sin supervisión independiente.
El enemigo no es la estadística aplicada ni el aprendizaje automático per se, sino el pack completo: tecnología + marketing + concentración de poder + ausencia de control democrático.
¿Y ahora qué? Ideas para pinchar el globo
La parte final del libro intenta responder a la pregunta incómoda: vale, el hype es un problema, ¿y ahora qué?
Bender y Hanna proponen actuar en varios niveles.
Como personas usuarias y ciudadanas
Aprender a detectar el hype: reconocer palabras talismán (“inteligente”, “autónomo”, “inevitable”), identificar qué se está ocultando (datos, trabajo humano, incentivos) y hacer la pregunta clave: ¿a quién beneficia realmente esta aplicación de IA y quién asume los riesgos?
Recuperar algo tan básico como el derecho a decir “no”: no usar ciertas herramientas, no aceptar condiciones abusivas, no delegar decisiones importantes en sistemas que no entendemos.
En el trabajo
El libro recoge ejemplos de resistencia organizada: desde enfermeras que se niegan a sustituir registros críticos por sistemas no probados, hasta docentes que exigen control sobre las plataformas que se introducen en el aula.
La idea de fondo es que la “implementación de IA” es negociable: se puede cuestionar, frenar, modificar. No tiene por qué venir en un power point desde la sede central y aplicarse sin discusión.
En el terreno político
Aquí entran las propuestas de regulación: transparencia sobre datos y modelos, límites claros a la vigilancia y al uso de IA en contextos de alto impacto (sanidad, justicia, seguridad), y mecanismos reales de rendición de cuentas cuando las cosas salen mal.
Más que grandes manifiestos sobre la “ética de la IA”, el libro pide reglas concretas que cambien incentivos y pongan algo de freno a la lógica del “muévete rápido y rompe cosas”.
Leer The AI Con desde un enfoque AI-First
Si uno intenta tomarse en serio un enfoque “AI-First” (en empresas, educación, administraciones), este libro funciona casi como una guía de higiene mental. No te dice “no uses IA”, te dice: antes de meterla en todo, entiende bien de qué estamos hablando.
Un enfoque AI-First mínimamente adulto necesita:
- Llamar a las cosas por su nombre (no es magia, es estadística a gran escala).
- Entender los límites de la tecnología antes de prometer milagros.
- Aceptar que organización, cultura y procesos importan tanto o más que el modelo de turno.
En ese sentido, The AI Con actúa como vacuna contra el powerpointismo de “vamos a meter IA en todo y ya veremos”.
Lo que le falta (y por qué aun así merece la pena)
El libro tiene un punto ciego evidente: está muy centrado en el contexto estadounidense y anglosajón. Europa aparece de refilón; el Sur Global, algo más, sobre todo cuando hablan de minería de datos y externalización de costes. Se echa de menos una mirada más amplia sobre cómo encaja todo esto en la geopolítica de la IA: China, India, África…
También es cierto que, por diseño, dedica mucho más espacio a las críticas que a los ejemplos de uso responsable. Si buscas un catálogo equilibrado de pros y contras, este no es el libro. Aquí el objetivo es otro: reequilibrar una conversación dominada por el optimismo tecnológico interesadamente exagerado.
Aun así, como contrapeso a la avalancha de discursos tecno-salvíficos, es difícil pedirle mucho más. Ayuda a poner los pies en el suelo, a distinguir lo que la tecnología hace bien de lo que nos venden que hará algún día, y a recordar que detrás de cada sistema hay decisiones humanas, modelos de negocio y estructuras de poder.
¿Para quién es este libro?
Lo recomendaría, sobre todo, a tres perfiles:
- Quien esté harto del hype de la IA pero no tenga todavía un marco sólido para argumentar por qué algo le huele mal.
- Profesionales que trabajan en sectores “objetivo” de la IA (educación, salud, medios, administración) y quieran herramientas conceptuales para negociar su implementación.
- Cualquier persona interesada en la relación entre tecnología, poder y democracia que quiera escapar tanto del tecno-optimismo ingenuo como del tecno-apocalipsis gratuito.
The AI Con no ofrece un futuro perfecto alternativo, pero sí algo más valioso: lenguaje, ejemplos y criterio para poder discutir el futuro que queremos sin que nos lo dicten desde la sala de juntas de unas pocas empresas. Solo por eso, ya merece un hueco en la estantería… y en una reseña tranquila, sin fuegos artificiales, en un blog que quiera tomarse la IA en serio.
