Hay una frase que aparece en cualquier conversación sobre redes sociales, casi como un reflejo: “yo defiendo la libertad de expresión”. Se dice con una seguridad moral que suena bien y, sin embargo, dura poco cuando intentas aterrizarla. Porque el conflicto no empieza en la teoría, sino en la práctica: ¿libertad para decir qué, en qué espacio, con qué alcance, con qué fricciones, con qué consecuencias? ¿Libertad para publicar… o libertad para que un sistema te amplifique? ¿Libertad para opinar… o libertad para industrializar acoso, propaganda o desinformación con herramientas cada vez más baratas?

El libro de John P. Wihbey, Governing Babel: The Debate over Social Media Platforms and Free Speech—and What Comes Next, entra en ese terreno con una ambición poco vistosa, pero muy seria: ordenar el debate sin fingir que existe una solución limpia. Su intención no parece el de quien quiere “ganar” una guerra cultural, sino el de quien quiere entender qué tipo de instituciones y reglas hacen falta cuando la conversación pública ya no ocurre en la plaza, sino en sistemas privados de recomendación.

Babel no es solo ruido: es fragmentación y pérdida de un “suelo común”

La metáfora de Babel funciona porque nombra algo que todos reconocemos. No se trata solo de que haya demasiado contenido. Se trata de que el espacio compartido se vuelve inestable: lenguajes que ya no se cruzan, comunidades que se relacionan como si vivieran en universos paralelos, y un clima en el que “lo común” se degrada hasta convertirse en sospecha permanente.

Lo importante —y aquí el título acierta— es que Babel no es solo un problema “de la gente”. Es un problema de arquitectura. Cuando el sistema premia lo que engancha, lo que enfurece, lo que simplifica y lo que divide, no hace falta imaginar conspiraciones: basta con dejar que los incentivos hagan su trabajo. Una parte del debate público trata esa fragmentación como una decadencia moral. Wihbey, por lo que se desprende de su marco, parece más interesado en una pregunta menos cómoda y más útil: ¿qué condiciones técnicas, legales y de gobernanza han hecho posible que la fragmentación se convierta en norma?

Y, sobre todo, ¿qué hacemos cuando la fragmentación deja de ser un síntoma y pasa a ser una infraestructura?

Dos “libertades de expresión” que se confunden todo el tiempo

Una fuente enorme de confusión viene de mezclar dos planos distintos como si fueran el mismo:

  1. La libertad de expresión en una democracia liberal: un principio que limita al Estado. El gobierno no debería castigarte por tus opiniones (con matices y excepciones muy acotadas).
  2. La expresión dentro de una plataforma: ocurre en un espacio privado, diseñado como producto, con reglas internas, herramientas de distribución, mecanismos de monetización y sistemas de aplicación (enforcement) que a veces son opacos incluso para quienes los gestionan.

Cuando se confunden estos dos planos, el debate se vuelve interminable. Si miras una red social como si fuese un parque público, cualquier moderación te suena a censura. Si la miras como lo que es —una máquina de amplificación diseñada para maximizar atención— el problema deja de ser “si alguien puede hablar” y pasa a ser “qué se premia, qué se frena, con qué criterios y con qué controles”.

Ese cambio de perspectiva es clave porque desplaza el foco del contenido individual (la polémica del día) hacia el funcionamiento del sistema (lo que hace que la polémica del día sea inevitable).

Del “qué se permite” al “deber de cuidado”: un giro pragmático

En el debate habitual hay una trampa recurrente: creer que gobernar plataformas consiste en decidir una lista de cosas que pueden o no pueden decirse. Ese enfoque, además de políticamente explosivo, suele ser técnicamente ingenuo. No solo porque el volumen lo hace impracticable, sino porque se convierte en una guerra sin fin: cada caso límite reabre la discusión desde cero.

La alternativa que Wihbey parece proponer —según el modo en que se resume su tesis— es más prosaica, pero también más realista: evaluar a las plataformas por responsabilidad de cuidado, capacidad de respuesta y persistencia del esfuerzo. No se trata de exigir perfección (“cero daño”), sino de exigir diligencia: que exista un sistema razonable para detectar riesgos, actuar cuando aparecen, aprender, corregir y rendir cuentas.

Este enfoque tiene algo de “ingeniería institucional”: no pide pureza moral; pide procesos verificables. Y eso, en el mundo digital, es casi revolucionario porque la conversación pública está llena de gestos simbólicos y muy poca auditoría.

Cuatro frentes del daño informativo: no es un único problema

Una de las virtudes de un marco como este es que obliga a separar lo que a menudo se mete en el mismo saco. En el ecosistema de reseñas y resúmenes del libro se repite una división en cuatro grandes áreas:

Desinformación, propaganda, discurso de odio e IA generativa.

No son categorías académicas por capricho: describen dinámicas distintas.

  • La desinformación juega con lo falso y con la velocidad: se propaga porque emociona, simplifica o confirma prejuicios.
  • La propaganda puede no ser “falsa” en sentido estricto: a veces es selectiva, insistente, coordinada y diseñada para erosionar confianza o polarizar.
  • El odio no es solo una opinión desagradable: puede ser una herramienta de intimidación que expulsa a colectivos del espacio público.
  • La IA generativa cambia la escala: abarata producir contenido, simular consenso, multiplicar identidades, saturar señales y automatizar campañas.

Separar estos frentes importa por una razón práctica: las herramientas para responder a cada uno no son idénticas. Lo que funciona contra estafas o spam no funciona contra propaganda de Estado. Lo que frena un linchamiento no necesariamente frena un sistema de desinformación “suave” pero persistente. Y lo que detecta texto sintético puede no detectar manipulación humana sofisticada.

El nudo estadounidense: libertad, empresas privadas y un marco legal que no encaja del todo

En Estados Unidos el debate se vuelve especialmente ácido por dos razones: una cultural (la centralidad simbólica de la Primera Enmienda) y otra legal-histórica (la protección que permitió que Internet escalara sin colapsar bajo litigios, y que al mismo tiempo consolidó un espacio privado de enorme poder).

En términos simples: la libertad de expresión limita al Estado, no a las empresas. Eso hace que cualquier regulación huela a censura, incluso cuando el objetivo no es decidir “qué es verdad” sino exigir transparencia, procesos o diligencia. Y, al mismo tiempo, esas empresas no operan como negocios cualquiera: ordenan lo visible, deciden qué se amplifica, qué se degrada, qué se monetiza, qué se etiqueta, qué se expulsa.

La tensión se agrava cuando algunos intentos regulatorios se formulan como obligación de “neutralidad” o como castigo al supuesto sesgo ideológico. Ahí el debate se convierte en un combate identitario: una parte del país cree que moderar es censurar; otra parte cree que no moderar es dejar el espacio público en manos de quien mejor manipula.

Wihbey, por lo que se desprende de su énfasis, no parece comprar ninguno de esos simplismos. Su salida va por otro lado: instituciones y procedimientos, no guerras culturales permanentes.

Europa como contraste: menos épica, más procedimiento

Para un lector europeo (y especialmente para quien mira estos temas desde España), Europa funciona como espejo. En los últimos años, el enfoque europeo ha tendido a convertir parte del debate en obligaciones procedimentales: transparencia, gestión de riesgos sistémicos, mecanismos de rendición de cuentas para grandes plataformas, marcos más claros sobre publicidad y sobre responsabilidades.

Se puede criticar mucho (y con razón) del modelo europeo: riesgos de sobrerregulación, asimetrías en la capacidad de cumplimiento, posibles efectos colaterales sobre la innovación, e incluso incentivos para que las plataformas cumplan “en papel” más que en realidad. Pero hay un punto que vale la pena rescatar: en Europa se intenta intervenir en la infraestructura de la conversación sin convertir al Estado en árbitro de contenido caso por caso.

Ese matiz es importante. No es “prohibir opiniones”; es exigir condiciones mínimas de seguridad y transparencia en sistemas que afectan a la esfera pública.

La cuestión central: las plataformas como infraestructura crítica (aunque nadie las eligió para eso)

Si hay una idea que atraviesa casi todas las discusiones contemporáneas sobre moderación es esta: las plataformas no son solo empresas. Son infraestructura. Y esa frase no es moralina: es una descripción funcional.

Cuando un sistema organiza la información que millones de personas consumen a diario, condiciona procesos políticos, afecta a reputaciones, permite (o dificulta) campañas coordinadas, y opera con incentivos comerciales que premian la atención, el sistema ya está gobernando. La pregunta no es si gobierna. La pregunta es cómo y con qué controles.

Aquí aparece una de las propuestas más provocadoras atribuidas a Wihbey en entrevistas: la necesidad de un organismo regulador adaptado al entorno digital, algo así como una institución capaz de operar con complejidad, rapidez y legitimidad. No necesariamente una comisión burocrática clásica; incluso se ha sugerido algo más parecido a un jurado o asamblea ciudadana apoyada por herramientas técnicas. La forma exacta es debatible. La intuición, en cambio, es fuerte: hoy gobernamos la conversación pública con mecanismos improvisados —políticas internas opacas, decisiones reactivas, presión mediática, comparecencias teatrales— y luego nos sorprendemos de que el sistema sea inestable.

“Rellenar formularios” suena banal, pero es el inicio de la rendición de cuentas

Hay una imagen que, aunque poco glamourosa, captura bien el giro hacia lo institucional: obligar a las plataformas a entregar datos, documentar procesos, explicar decisiones, permitir auditorías, sostener mecanismos de apelación, y someterse a inspección independiente.

Es un detalle aparentemente menor: papel, formularios, reportes. Pero en realidad es el punto donde empieza la gobernanza moderna. Sin datos no hay auditoría. Sin auditoría no hay corrección. Sin corrección solo queda el ciclo de escándalo–disculpa–parche… y vuelta a empezar con el siguiente incendio.

La rendición de cuentas no se construye con declaraciones solemnes, sino con trazabilidad: poder reconstruir por qué ocurrió algo, qué decisiones lo facilitaron, qué señales se ignoraron, qué métricas se usaron y qué cambios se aplicaron después.

IA generativa: más contenido, más velocidad, y una guerra de señales

La IA generativa no “crea” el problema de Babel, pero lo acelera. Y no solo por deepfakes o por textos creíbles. El cambio decisivo es económico: el coste de producir persuasión cae en picado. Puedes generar miles de piezas “suficientemente plausibles” por el precio de casi nada, personalizarlas a audiencias microsegmentadas, y mantener campañas persistentes sin agotar recursos humanos.

Esto empuja el debate hacia dos peligros:

  • El fatalismo (“ya no se puede creer nada”).
  • La tentación de automatizarlo todo (“que la IA modere a la IA”).

El marco que se atribuye a Wihbey parece más prudente: usar automatización como apoyo —para escala, para detección de patrones, para reducir exposición humana a contenido traumático— sin convertir la moderación en una caja negra más. Porque si la moderación se vuelve opaca, el remedio reproduce el problema: más poder invisible, más decisiones no auditables, más desconfianza.

Una pregunta que no se resuelve con un tuit

Babel no se “arregla” volviendo a una lengua única. Pretender eso sería ingenuo o autoritario. La pluralidad es parte del juego democrático, y el conflicto —en dosis razonables— también lo es.

Lo que sí puede hacerse, y ahí parece apuntar el libro, es otra cosa: hacer que la pluralidad no sea explotable como vulnerabilidad sistémica. Reducir el premio estructural a lo más tóxico, lo más falso o lo más rentable a corto plazo. Construir instituciones capaces de operar en un entorno turbulento sin caer en arbitrajes morales absolutos. Exigir procedimientos y rendición de cuentas a quien, de facto, ya gobierna.

Y quizá esa sea la pregunta incómoda que queda flotando: si aceptamos que las plataformas ya organizan una parte central de la vida común, ¿vamos a seguir fingiendo que son “solo” productos privados… o vamos a exigir que se comporten, por fin, como la infraestructura que ya son?