Hay una manera bastante fiable de detectar cuándo una conversación sobre IA se ha vuelto perezosa: se queda en el brillo del producto. En el “mira lo que hace”, en la demo, en el asombro. Y, sin embargo, lo que más está cambiando nuestras vidas no es la IA espectacular, sino la IA aburrida: la que vive dentro de procesos, formularios, puntuaciones, filtros y decisiones administrativas.

Code Dependent, de Madhumita Murgia, va justo ahí. A lo que pasa cuando la IA deja de ser herramienta y se convierte en infraestructura. A lo que ocurre cuando el mundo empieza a tratarte como un vector, un riesgo, una probabilidad. No porque alguien sea malvado, sino porque el sistema está diseñado para clasificar antes que para comprender.

La tesis del libro se puede decir sin tecnicismos: estamos entrando en una dependencia del código. Y eso no significa que usemos más software, sino que delegamos decisiones relevantes en sistemas opacos —a veces públicos, a veces privados— de los que luego es muy difícil salir, discutir o apelar. Una cosa es que un algoritmo te recomiende una canción. Otra, que te encierre en una categoría que te persigue.

Murgia no escribe desde el laboratorio ni desde Silicon Valley. Es una elección importante. Su punto de vista es el del “lado B” de la IA: la gente que suele aparecer tarde en los relatos optimistas, cuando ya ha pagado el precio. Comunidades vulnerables, migrantes, trabajadores precarios, personas para las que un error no es una anécdota, sino una caída.

Y aquí es donde el libro te coloca en una incomodidad útil: la IA no es solo un debate sobre sesgos. Es un debate sobre poder.

La sombra no es ciencia ficción: es un “no” sin explicación

El subtítulo original habla de vivir a la sombra de la IA. Me parece una imagen acertada porque la sombra no es un monstruo; es algo que está ahí, que te acompaña, que condiciona tu movimiento sin que siempre lo notes.

La sombra aparece cuando una decisión llega ya tomada: una prestación que no llega, un acceso que se bloquea, una sospecha que se activa, un “perfil de riesgo” que te marca. Y tú preguntas “¿por qué?”… y la respuesta es un silencio técnico, una frase estándar o un “es lo que dice el sistema”.

Ese es el punto central: no es solo que la IA se equivoque (se equivoca). Es que, cuando se equivoca, el error se vuelve resistente. Se institucionaliza. Se hace procedimiento. Y como el procedimiento tiene apariencia de neutralidad, discutirlo parece casi una insolencia.

Lo más inquietante de ese mundo no es la automatización, sino la inapelabilidad. Un juez se puede equivocar, un médico también, un trabajador social también. Pero existe una conversación posible: se puede preguntar, se puede matizar, se puede entender el contexto. Con muchos sistemas algorítmicos, en cambio, lo que se rompe es el puente: la explicación. Y sin explicación, la apelación se convierte en un acto de fe.

Ahí empieza la dependencia.

La IA como cadena de suministro (y el mito del sistema “autónomo”)

Otra cosa que el libro hace muy bien es pinchar el globo de la autonomía. A fuerza de hablar de “modelos que aprenden”, se nos olvida algo obvio: la IA es una industria. Y como cualquier industria, tiene cadena de suministro.

Hay datos que se extraen, infraestructuras que se pagan, energía que se consume y, sobre todo, trabajo humano que se oculta: gente que etiqueta, filtra, corrige, modera, limpia. Trabajo fragmentado, externalizado, muchas veces precario. No es un “detalle ético”; es la base material sobre la que se sostiene la apariencia de inteligencia.

El relato dominante vende la IA como una capa etérea encima del mundo. El libro te obliga a verla como lo que es: un sistema construido sobre decisiones humanas, incentivos económicos y asimetrías globales. Si quieres entender la IA, no basta con mirar el modelo: hay que mirar quién paga, quién cobra, quién queda expuesto y quién queda protegido.

Y aquí aparece una intuición que atraviesa el texto: muchas comunidades aportan datos y trabajo —a veces de forma involuntaria— para que la IA sea rentable, pero reciben muy poco a cambio en términos de control, protección o retorno. Llámalo extractivismo de datos, colonialismo digital o simplemente negocio: el patrón es reconocible.

Dependencia del código: una definición que ayuda a pensar

Me interesa la expresión “dependencia del código” porque describe algo más concreto que “impacto de la IA”. No habla de futuro. Habla de arquitectura social.

Dependencia es cuando:

  • el criterio se vuelve estadístico y se impone como verdad (“si el modelo lo dice…”),
  • la responsabilidad se diluye (“es el proveedor”, “es el sistema”, “es la política de la herramienta”),
  • y el afectado carga con el peso de demostrar que no encaja en lo que el sistema ha decidido que es.

La dependencia no es solo técnica; es psicológica y política. El individuo deja de ser sujeto y pasa a ser expediente. Y cuando el expediente es una puntuación, el mundo se vuelve una colección de puertas automáticas: algunas se abren, otras se cierran, y casi nunca te explican el mecanismo.

El libro no cae —al menos no como lectura dominante— en el cliché de “IA mala / IA buena”. Hay ejemplos donde la tecnología puede aportar valor real, especialmente cuando se aplica con cuidado y supervisión. El problema es que la realidad institucional suele ser más áspera: se despliega para ahorrar costes, acelerar decisiones, cubrirse las espaldas o “hacer más con menos”. Y ese “menos” suele ser humanidad, contexto y tiempo.

La crítica que conviene hacerle: potencia narrativa, menos armazón

Dicho todo esto, también hay que reconocer el tipo de libro que es. Code Dependent es periodismo con nervio: historias, entrevistas, escenas, casos. Se lee con facilidad y te deja poso. Pero no es un tratado sistemático, ni un manual de políticas públicas, ni un marco teórico cerrado.

A mí no me molesta: de hecho creo que, para hablar de IA real, la experiencia importa. El error algorítmico no se entiende del todo en abstracto; se entiende cuando ves a quién le cae encima. Pero si buscas una arquitectura analítica más rígida, puede que el libro te sepa a “abro puertas” más que a “cierro el argumento”. Es honesto leerlo así: como un mapa de fricciones, no como una teoría total.

Lo que el libro te deja: menos hype, más procedimiento

Si tuviera que decir qué cambia después de leerlo, no diría “ahora sé más sobre IA”. Diría algo más incómodo: ahora me importan más los procedimientos que las promesas.

Te empiezan a interesar preguntas que antes parecían administrativas (y por eso se ignoraban):

¿Quién compra estos sistemas? ¿Con qué criterios? ¿Qué contrato se firma? ¿Qué auditoría se exige? ¿Qué pasa con el falso positivo? ¿Qué derecho tiene una persona a saber por qué se le niega algo? ¿Dónde queda el botón humano de “esto no tiene sentido”?

La sensación final no es apocalipsis. Es otra cosa, quizá peor: normalización. La intuición de que nos estamos acostumbrando a vivir bajo decisiones que no entendemos, tomadas por sistemas que no controlamos, desplegados por instituciones que agradecen no tener que explicarse.

Y aquí el libro es, sobre todo, una advertencia práctica: si aceptamos la inapelabilidad como precio de la eficiencia, no estamos “modernizando” nada. Estamos cambiando el contrato social sin votarlo.

Una conclusión poco épica: el derecho a discutir vuelve a ser central

Hay libros que intentan convencerte de que la IA es el gran tema del siglo. Este, más modestamente, te recuerda algo más antiguo: si una decisión afecta tu vida, tienes derecho a entenderla y a discutirla.

La dependencia del código no se rompe con una app mejor. Se rompe con reglas, con auditoría real, con transparencia útil (no con PDFs decorativos), con responsabilidad asignada y con vías de reparación claras. Y, sobre todo, con una idea que debería ser básica pero se está erosionando: el sistema no puede esconderse detrás del sistema.

Code Dependent vale por eso: porque te saca del teatro del hype y te lleva al sótano donde se decide de verdad. Y una vez has visto ese sótano, cuesta volver a hablar de IA como si todo fuera innovación y productividad. A veces, lo que está en juego es más simple: si seguimos siendo personas ante la institución… o pasamos a ser puntuaciones difíciles de rebatir.