Mesa de trabajo con dashboard desenfocado, mapa y una red transparente que simboliza la mirada de las plataformas.
Cuando todo se mide, lo que no entra en la métrica desaparece

Hay libros que no te aportan “una idea” sino un par de gafas. No te dicen qué pensar sobre un tema concreto; te cambian el ángulo desde el que miras casi todo. Seeing Like a Platform: An Inquiry into the Condition of Digital Modernity, de Petter Törnberg y Justus Uitermark, es de esos. Y su ambición es grande: explicar por qué la era digital no consiste solo en “tener más tecnología”, sino en habitar una condición histórica distinta, con su propia forma de ver, medir y gobernar lo social.

La intuición del título es deliberada: si James C. Scott describió cómo el Estado moderno necesita simplificar el mundo para hacerlo administrable —hacerlo “legible”—, los autores sostienen que hoy emerge otra máquina de legibilidad: la plataforma. Y, con ella, una nueva manera de producir realidad.

La tesis de Seeing Like a Platform: por qué las plataformas cambian cómo vemos la realidad

La tesis central del libro puede decirse sin tecnicismos: las plataformas no solo distribuyen información o conectan gente; instauran un modo de conocer el mundo. Un modo basado en datos, señales y métricas que termina filtrando qué cuenta como real, qué merece atención, qué es valioso, qué es sospechoso… y qué se vuelve invisible.

En el corazón del argumento hay una idea incómoda: cuando una forma de ver se convierte en infraestructura —cuando se incrusta en feeds, rankings, reputaciones, sistemas de recomendación, scoring, moderación, search— deja de ser un “punto de vista” y pasa a ser una condición material. No es que alguien te convenza de mirar así: es que el entorno te recompensa por adaptarte a esa mirada.

Por eso el libro habla de un cambio “epistemológico”: no solo cambian las herramientas, cambia lo que la sociedad considera conocimiento útil. Los autores conectan este giro con el ascenso del imaginario de la ciencia de la complejidad aplicado a lo social: redes, emergencias, autoorganización, sistemas vivos.

De “ver como un Estado” a “ver como una plataforma”: legibilidad, control y simplificación

Scott explicaba que el Estado, para gobernar, tiende a imponer esquemas simplificados: censos, catastros, estándares. No necesariamente por maldad, sino por necesidad operativa. El problema es lo que se pierde en el proceso: el contexto local, la práctica, el conocimiento tácito, la diversidad que no cabe en una casilla.

Seeing Like a Platform recoge ese hilo, pero lo desplaza. La plataforma también simplifica, pero lo hace con otra lógica:

  • no busca solo “registrar” el mundo; busca hacerlo procesable en tiempo real;
  • no se limita a describir; tiende a optimizar;
  • no trabaja únicamente con normas explícitas; trabaja con arquitecturas de elección: fricción, incentivos, visibilidad, recomendación.

Y aquí aparece un punto clave: la plataforma no necesita convencerte; le basta con diseñar el entorno donde ciertas conductas son más rentables que otras. Es una forma de gobierno que se parece menos a “ordenar” y más a “ajustar parámetros”. Los autores lo expresan como el paso de la sociedad-máquina a la sociedad-organismo: un mundo vivo que se “pastorea” con infraestructura digital.

La metáfora de la complejidad: del plano industrial al sistema vivo digital

Hay una parte del libro que me parece especialmente fértil: la insistencia en que las metáforas no son decoración; son tecnología política. En la modernidad industrial, la metáfora dominante era la máquina: piezas, jerarquías, control central, planificación. El Fordismo como imaginario social.

En la modernidad digital, en cambio, gana peso la metáfora de la complejidad: redes que se autoorganizan, comportamientos emergentes, inteligencia distribuida, coordinación sin mando. Y esa metáfora seduce porque promete una liberación: menos burocracia, menos jerarquía, más dinamismo.

El libro no niega esa promesa. La toma en serio. Pero añade el giro que importa: esa misma visión abre la puerta a nuevas formas de dominación, precisamente porque el control ya no necesita presentarse como control. Puede presentarse como “optimización”, “seguridad”, “salud del sistema”, “reducción de fricción”, “mejora de experiencia”.

Lo inquietante es que, en nombre de la complejidad, se normaliza una política sin deliberación: si el sistema es demasiado complejo para entenderlo, entonces —parece— hay que dejarlo en manos de quien ajusta los modelos.

Cuando medir es gobernar: métricas, rankings y lo que queda fuera del mapa

La plataforma convierte el mundo en señales. Y una vez que el mundo se convierte en señales, gobernar se parece mucho a gestionar métricas.

Esto no es una crítica moralista al dato. Es algo más básico: lo que puede medirse tiende a volverse real; lo que no puede medirse tiende a volverse irrelevante. Y lo peor es que el proceso se retroalimenta: si tu supervivencia depende de aparecer en el feed, de rankear, de ser recomendado, adaptas tu conducta para producir señal. El mapa no solo simplifica el territorio: el territorio aprende a parecerse al mapa.

Aquí el libro se siente muy actual porque nombra algo que ya damos por sentado: que la realidad social se decide cada vez más en capas invisibles de clasificación, puntuación y recomendación. No hablamos solo de redes sociales. Hablamos de reputación, acceso, trabajo, crédito, visibilidad cultural, incluso de qué temas “existen” en la conversación pública.

Y hay un matiz importante: estas métricas no son neutrales. En el mundo plataforma, medir es elegir objetivos. Y elegir objetivos es política.

IA y gobernanza algorítmica: decisiones opacas, autoridad técnica y falta de apelación

La IA aparece en el libro no como “un capítulo más”, sino como acelerador del régimen plataforma. Porque la IA no solo automatiza tareas: automatiza clasificación a escala, y hace que el sistema pueda decidir en base a patrones que no son fáciles de traducir a razones comprensibles.

Los autores plantean un contraste que merece quedarse: en el mundo de reglas, puedes discutir la regla. En el mundo de modelos, a menudo discutes el resultado (“el sistema dice que…”). Y cuando discutes el resultado sin acceso real a la lógica —o sin un marco explícito de valores— aparece una forma nueva de impotencia: la dificultad de apelar.

No porque no existan mecanismos de queja, sino porque el sistema está diseñado para funcionar, no para explicarse. La gobernanza algorítmica tiende a producir una autoridad técnica que pesa mucho en el debate público: si el modelo “predice”, si el sistema “detecta”, si el algoritmo “optimiza”, ¿quién se atreve a decir que no?

La pregunta relevante no es si la IA es potente (lo es), sino qué tipo de sociedad creamos cuando delegamos decisiones en sistemas cuyo modo de conocer el mundo está fundado en correlaciones y señales, no en razones argumentables.

Wikipedia como laboratorio: autoorganización, reglas y concentración de poder

Me gusta que el libro no reduzca “plataforma” a “Big Tech”. Al meter Wikipedia en el análisis, obliga a abandonar un consuelo demasiado fácil: la idea de que lo abierto es automáticamente democrático.

Wikipedia es un caso perfecto para estudiar la ambivalencia: un proyecto basado en colaboración masiva y autoorganización que, al escalar, desarrolla reglas, jerarquías funcionales, guardianes del procedimiento, conflictos por legitimidad. En otras palabras: incluso cuando las intenciones son buenas, el poder reaparece en la infraestructura.

La lección no es “Wikipedia está mal”. La lección es más general: la autoorganización no elimina el poder; lo redistribuye y lo vuelve más difícil de localizar. Y ahí está el parentesco con la tesis del libro: en la modernidad digital, el poder se esconde menos en órdenes explícitas y más en arquitecturas, protocolos y métricas.

Qué implica “ver como una plataforma”: consecuencias políticas y pistas prácticas

No es un libro de “soluciones”, y quizá por eso es útil. Porque en este tema solemos saltar demasiado rápido a recetas (transparencia, regulación, ética) sin entender el sustrato: el régimen de legibilidad.

Aun así, de esta mirada se desprenden algunas consecuencias claras:

La primera: la transparencia no basta si se limita a “explicar el algoritmo”. El núcleo está en la arquitectura: qué incentivos genera, qué comportamientos premia, qué se vuelve visible y qué se castiga con invisibilidad.

La segunda: si el mundo plataforma erosiona la apelación, entonces cualquier discusión seria sobre gobernanza debería incluir contestabilidad real: auditorías, trazabilidad, capacidad de impugnar decisiones automatizadas de forma efectiva. (No como un formulario que nadie lee, sino como un mecanismo con dientes). Esta discusión se conecta con el “entanglement” entre epistemología, tecnología y política que los propios autores subrayan en entrevistas sobre el libro.

La tercera: necesitamos vocabulario. Parte del triunfo de la modernidad digital es que ha normalizado palabras que suenan técnicas pero son profundamente normativas: “engagement”, “confianza”, “seguridad”, “calidad”, “relevancia”. Si no disputas esas palabras, disputas solo lo superficial.

Y quizá la conclusión más incómoda: la metáfora de la complejidad puede convertirse en coartada. “Es demasiado complejo” es una frase que a veces describe un límite real, y a veces busca inmunidad política. El libro, leído en 2026, funciona casi como antídoto contra esa rendición.

Porque al final esto va de algo muy antiguo: quién decide qué es real. Solo que ahora esa decisión pasa, cada vez más, por sistemas que convierten el mundo en datos y llaman a ese filtro “neutralidad”.