Hay debates que se enquistan porque están mal planteados desde el principio. El de si la inteligencia artificial es o no una burbuja es uno de ellos. La pregunta equivocada genera respuestas inútiles, y en este caso hay dos que circulan con insistencia: los que dicen que estamos viviendo una repetición de la fiebre puntocom con más potencia computacional, y los que responden que esta vez es completamente diferente. Los dos bandos tienen datos. Ninguno explica lo que importa.
El problema no es si la IA es o no una burbuja. El problema es que la respuesta cambia radicalmente dependiendo de quién eres.
La tecnología no es el debate
Mihura, en un hilo que circuló esta semana en X, lo expresa con una contundencia difícil de rebatir. La economía de los LLMs no es humo: es energía que entra, silicio que procesa, tokens que salen, y empresas —farmacéuticas, bancos, equipos de desarrollo— que pagan porque el ROI es real y medible. No estamos hablando de captar usuarios para monetizarlos algún día con publicidad. Estamos hablando de vender capacidad cognitiva bajo demanda a actores que ya la necesitan y la usan.
El argumento sobre la paradoja de Jevons es el más importante del hilo, y el menos citado. Cuando el coste de un recurso fundamental cae de forma drástica, el consumo no se mantiene estable ni disminuye: explota. La paradoja lleva el nombre de William Stanley Jevons, que en 1865 observó que la mejora en la eficiencia de las máquinas de vapor no redujo el consumo de carbón en Inglaterra, sino que lo multiplicó: hacer el carbón más productivo lo volvió económicamente racional en más contextos, y la demanda total creció. El mismo patrón se repite cada vez que un recurso esencial se abarata de forma significativa: la electricidad, los microprocesadores, el ancho de banda. En todos los casos, la eficiencia expandió la frontera de lo que era viable, no contrajo la demanda.
Con la IA ocurre exactamente lo mismo. Una empresa no gasta la décima parte del presupuesto para hacer el mismo trabajo de siempre cuando los tokens se vuelven cien veces más baratos. Lo que hace es rediseñar procesos enteros que hasta ahora no tenía sentido automatizar. La frontera de lo que es económicamente racional se expande. La demanda de cómputo no se estanca; se acelera. Literalmente, esta semana Anthropic ha tenido que introducir límites de sesión porque la demanda supera la capacidad de producción.
A esto hay que añadir un factor que las comparaciones con el año 2000 ignoran sistemáticamente: la fricción de despliegue. En el 2000, para que internet cambiara el mundo hacía falta que la gente comprara ordenadores, tendiera cables, esperara conexiones lentas. La infraestructura de consumo no existía, y la adopción tardó décadas. Hoy, la infraestructura ya está en el bolsillo de cinco mil millones de personas. Cuando Anthropic u OpenAI actualizan un modelo, la capacidad cognitiva disponible para todo el planeta da un salto en milisegundos. No hay precedente para esta velocidad de difusión.
Y luego está el punto que Mihura llama recursive self-improvement, que es, de todas las razones para no equiparar IA con dotcom, la más difícil de procesar intuitivamente. Una web de vender productos para mascotas en el 2000 no escribía código para hacerse mejor. Un router de Cisco en 1999 no diseñaba un router más rápido. Hoy, literalmente, se usan flotas de agentes para refactorizar codebases, optimizar los kernels que entrenarán la próxima generación de modelos, y diseñar arquitecturas de chips más eficientes. Cada avance en inteligencia reduce el coste de generar la siguiente unidad de inteligencia. Eso no tiene precedente en ninguna tecnología anterior.
Hasta aquí, Mihura tiene razón.
El precio no es el coste
Pep Martorell, en un artículo publicado hoy en su Substack DeepTech & Science, pone sobre la mesa un ejemplo que detiene. Un usuario de Claude consumió 1.100 millones de tokens en 23 días. El coste equivalente vía API era de unos 27.000 dólares. Lo que pagó: 200 dólares al mes con el plan Max. Ciento treinta y cinco veces menos de lo que costó.
No es una anécdota. El CFO de Anthropic declaró en un filing judicial que la empresa ha generado unos 5.000 millones en ingresos acumulados, mientras ha gastado más de 10.000 millones entre inferencia y entrenamiento. OpenAI generó unos 3.700 millones en 2024 y perdió aproximadamente 5.000. Gasta 1,35 dólares por cada dólar que ingresa. Las dos empresas más influyentes del sector están subvencionando cada prompt que escribe el mundo.
La estrategia es conocida: subvencionar hasta crear dependencia, luego ajustar precios. El riesgo no es que la tecnología no funcione. El riesgo es lo que Martorell llama, citando al analista Steve Smith, el test de las cinco veces: si no puedes construir un negocio viable con costes de IA cinco veces superiores a los actuales, no tienes un negocio viable; tienes un proyecto científico subvencionado.
Hasta aquí, Martorell también tiene razón.
El problema es que hablan de actores distintos
La tensión entre los dos argumentos se disuelve cuando entiendes a quién se aplica cada uno.
Mihura habla esencialmente de la tecnología y de la economía a largo plazo del sector. En este nivel, las matemáticas funcionan: el coste de computar tokens cae más rápido de lo que bajan los precios de las APIs, los márgenes aumentarán, la demanda es estructuralmente ilimitada. Para Microsoft, Google, Meta o Amazon, que construyen infraestructura propia y operan a escala, esta lectura es correcta. Ellos no dependen de los precios de las APIs de terceros; ellos son, en buena medida, los proveedores.
Martorell habla de un actor distinto: la empresa —la mayoría de empresas— que no tiene infraestructura propia y que toma decisiones irreversibles basadas en unos precios que los propios proveedores saben que no pueden mantener. Una empresa que hoy elimina tres desarrolladores y sustituye su capacidad por un pipeline agéntico a 200 dólares al mes no hará las mismas cuentas cuando esos 200 se conviertan en 2.000, o cuando los límites de sesión se endurezcan hasta hacer el servicio inutilizable para producción.
El segmento más expuesto no es ni el grande ni el pequeño. Es el segmento medio: empresas con suficiente volumen para haber integrado IA de forma significativa en procesos críticos, pero sin la masa crítica para negociar condiciones especiales con los proveedores ni los recursos para construir infraestructura alternativa. Son las que han hecho apuestas más grandes basadas en precios actuales, y las que tendrían menos margen de maniobra ante un ajuste. En muchos sectores, esta descripción incluye a la mayoría de los competidores relevantes.
Ya hemos visto la primera señal: Anthropic ha reducido los límites durante las horas punta, y el siete por ciento de los usuarios ya nota restricciones que no existían hace unos meses. No es una crisis, pero es el patrón que Martorell describe: dar con una mano, retirar con la otra, y que el nuevo suelo sea más bajo que el anterior sin que nadie pueda señalar exactamente cuándo cambió.
La confusión entre los dos niveles de análisis es cara. Que la tecnología sea real y que la demanda sea estructural no implica que los precios actuales sean estables. Que haya subvención hoy no implica que la tecnología no sea transformadora. Las dos cosas son ciertas a la vez, pero para actores en posiciones muy distintas.
La geopolítica como amplificador del problema
Hay una tercera variable que complica el cálculo: la entrada de modelos chinos en el mercado global.
DeepSeek, Alibaba y Baidu no compiten simplemente como empresas tecnológicas. Compiten como parte de un ecosistema donde las decisiones sobre precios, márgenes y acceso al mercado no responden exclusivamente a la lógica del capital privado. Cuando un actor puede priorizar cuota de mercado sobre rentabilidad durante períodos prolongados, e integrar tecnología, datos y despliegue a una escala que ninguna empresa privada occidental puede igualar sin apoyo estatal, el mercado deja de ser puramente económico.
La consecuencia práctica es que el desalineamiento entre coste real y precio percibido no tiende a corregirse a corto plazo: puede intensificarse. Precios artificialmente bajos durante más tiempo profundizan la dependencia tecnológica de empresas e instituciones que, pasado cierto punto, han perdido la capacidad interna para cambiar de proveedor o recuperar autonomía operativa. Es la misma dinámica que hemos visto en otras infraestructuras críticas —energía, semiconductores, redes de telecomunicación— pero comprimida en un ciclo de adopción mucho más rápido.
Aquí la distinción geopolítica es relevante no como advertencia abstracta, sino como variable de diseño concreta: de quién dependes, en qué jurisdicción opera la infraestructura que usas, qué datos circulan por ella, y qué opciones tendrías si las condiciones de acceso cambiaran de forma repentina por razones que no tienen nada que ver con la calidad del servicio.
Cómo actuar cuando el suelo es temporal
La pregunta que queda, y es la única que merece responderse, no es si hay burbuja. Es cómo construir en un terreno donde los precios actuales no reflejan los costes reales, donde la tecnología es transformadora pero las reglas económicas del mercado todavía no están estabilizadas, y donde la geopolítica ha convertido la infraestructura digital en un espacio de competencia estratégica.
La respuesta no es evitar la IA. Es adoptarla con una arquitectura que no asuma que las condiciones actuales son permanentes. Esto significa, en la práctica, distinguir entre usos donde la dependencia es aceptable —tareas discrecionales, exploración, aumento de productividad individual— y usos donde crear dependencia sin alternativa es un riesgo operativo real: procesos críticos, capacidades que si se pierden no se recuperan fácilmente, funciones donde un cambio de precios cambiaría la viabilidad del modelo de negocio. Diversificar proveedores no es paranoia; es la misma lógica que aplicamos a cualquier otra infraestructura crítica. Y mantener capacidad interna en las funciones estratégicas no es ineficiencia; es opcionalidad.
Martorell propone el test de las cinco veces como filtro mínimo. Si los costes se multiplican por cinco, lo que has construido ¿sigue aguantando? Si la respuesta es no, la pregunta es si lo sabes, y si tienes un plan.
La IA es infraestructura real. Pero hoy su precio no es su coste, y el mercado en el que operas ya no es solo un mercado. Construir sobre esta base sin tenerlo en cuenta no es optimismo. Es el tipo de error que cuesta años recuperar, precisamente porque la tecnología funciona tan bien que nadie siente la urgencia de planteárselo hasta que es demasiado tarde.
