Cuando un casino calcula las probabilidades de la ruleta, trabaja con riesgo. Cuando una startup lanza un producto radicalmente nuevo, navega en incertidumbre. La diferencia parece semántica. No lo es.
Frank Knight lo formuló con precisión en Risk, Uncertainty and Profit (1921): el riesgo se puede medir, modelar y asegurar; la incertidumbre, no. En el riesgo conocemos las probabilidades de los resultados posibles. En la incertidumbre ni siquiera sabemos qué resultados son posibles. Una distinción aparentemente técnica que tiene consecuencias enormes para cómo tomamos decisiones, construimos empresas y diseñamos instituciones.
Las aseguradoras viven del riesgo. Saben cuánta gente de 40 años morirá este año, con márgenes de error pequeños. Por eso pueden vender pólizas de vida rentables. Pero ninguna aseguradora ofrece pólizas contra “que tu modelo de negocio quede obsoleto” o “que aparezca un competidor que nadie anticipó”. Eso es incertidumbre pura. Y el hecho de que nadie lo asegure no es un fallo del mercado: es una señal epistémica.
El truco de convertir niebla en estadística
La cultura cuantitativa moderna tiene una tendencia peligrosa: convertir incertidumbre en riesgo mediante el truco de asignar probabilidades donde no las hay. Los modelos financieros que precipitaron la crisis de 2008 no fallaron por malas matemáticas. Fallaron porque trataron incertidumbre estructural como si fuera riesgo medible. Las hipotecas subprime tenían calificaciones AAA no porque fueran seguras, sino porque los modelos no tenían categoría para “no sabemos”.
Nassim Taleb insiste en que vivimos en Extremistán, no en Mediocristán. En Mediocristán —el mundo de las alturas, los pesos, las temperaturas— los promedios son significativos y las distribuciones son predecibles. En Extremistán —el mundo de las fortunas, las ventas de libros, las guerras, las pandemias— un solo evento puede dominar toda la distribución. Las herramientas estadísticas diseñadas para Mediocristán fracasan estrepitosamente en Extremistán, no de forma ocasional sino sistémica. John Kay y Mervyn King desarrollan este argumento con rigor en Incertidumbre radical: la mayoría de las decisiones importantes que tomamos —personales, empresariales, políticas— no son problemas de optimización con datos incompletos, sino navegación genuina en territorio donde los propios mapas son inaplicables.
Y sin embargo, admitir que operamos en incertidumbre es incómodo. Los inversores quieren números. Los consejos de administración quieren proyecciones. Los reguladores quieren tests de estrés. Entonces inventamos cifras, construimos modelos sofisticados y nos convencemos de que hemos domesticado lo indomable. El resultado no es gestión del riesgo. Es teatro de la precisión.
Cuando la IA produce certeza donde no la hay
La inteligencia artificial funciona extraordinariamente bien con riesgo. Dale a un modelo millones de radiografías etiquetadas y aprenderá a detectar tumores con precisión sobrehumana. Ese es su dominio natural: patrones estables, distribuciones conocidas, errores medibles. Pero pregúntale qué tecnología médica revolucionará la oncología en 2030 y obtendrás extrapolaciones plausibles, no predicciones útiles.
El problema no es solo que los modelos se equivoquen en territorio incierto. Es que no lo admiten. Un modelo de lenguaje produce respuestas fluidas y seguras sobre futuros impredecibles con exactamente el mismo tono que usa para responder sobre hechos consolidados. La fluidez sintáctica imita la confianza epistémica. Nate Silver lo documentó exhaustivamente en La señal y el ruido: los sistemas predictivos fallan con más frecuencia y más gravedad precisamente en los dominios donde más se confía en ellos, porque son los dominios donde la incertidumbre estructural es mayor y los datos históricos menos relevantes.
Esto tiene consecuencias prácticas para cualquier empresa que use IA en decisiones estratégicas. Están asumiendo, sin necesariamente saberlo, que el futuro se parecerá al pasado en formas que sus modelos pueden capturar. A veces es cierto. Pero cuando no lo es —y en innovación, en geopolítica, en cambio tecnológico disruptivo, raramente lo es— el resultado es una falsa sensación de control justo antes del desastre. No igual que antes de tener IA. Potencialmente peor: ahora hay un modelo que justifica la decisión.
Operar en la niebla
Keynes entendía que la incertidumbre no es un problema técnico sino existencial. Ante ella, la racionalidad pura se queda corta. Por eso los agentes económicos confiamos en convenciones colectivas, imitamos a quienes percibimos como mejor informados, seguimos reglas prácticas y actuamos según lo que él llamó “espíritus animales”: impulsos e intuiciones que no podemos justificar con datos pero que nos permiten actuar cuando la parálisis sería la única alternativa racional.
Visto así, el emprendedor exitoso no es necesariamente alguien bueno calculando probabilidades. Es alguien capaz de tomar decisiones irreversibles con información radicalmente incompleta y sin desmoronarse en el proceso. Bezos no tenía en 1994 una distribución probabilística sobre el futuro del comercio electrónico. Tenía una intuición, una apuesta y suficiente temple para sostenerlas mientras el mundo ponía al día sus modelos.
Reconocer la incertidumbre no conduce a la parálisis. Conduce a una forma diferente de actuar: diseñar estrategias que funcionen en múltiples futuros posibles en lugar de optimizar para uno específico, mantener opcionalidad, construir sistemas que —como propone Taleb— mejoren con la volatilidad en lugar de quebrarse con ella. La diferencia entre una empresa frágil y una antifrágil no está en cuánto saben sobre el futuro, sino en cómo han construido su relación con lo que no saben.
Instituciones para lo que no podemos predecir
La distinción de Knight tiene implicaciones que van más allá de la empresa individual. Cambia cómo deberíamos organizar mercados, diseñar regulaciones y evaluar el talento directivo.
Philip Tetlock lleva décadas estudiando la calidad predictiva de los expertos. Sus conclusiones, recogidas en Superpronosticadores, son incómodas: la mayoría predice peor que modelos simples, y los expertos más mediáticos —los que hablan con más seguridad— tienden a ser los menos precisos. Un mundo que trata toda incertidumbre como riesgo calculable acaba siendo sorprendido constantemente: por crisis financieras que “nadie podía prever”, por disrupciones tecnológicas que “no aparecían en los modelos”, por fenómenos geopolíticos que “los expertos no anticiparon”. Un mundo que reconoce la incertidumbre construye instituciones más robustas precisamente porque no sobreestima su capacidad predictiva.
Todo ello requiere humildad epistémica, que es quizás la competencia más infravalorada en entornos profesionales. Los expertos deberían admitir más a menudo “no sé” en lugar de fabricar proyecciones con dos decimales. Los modelos deberían llevar advertencias prominentes sobre sus supuestos. Las decisiones importantes deberían evaluarse no solo por sus resultados —a menudo fuera de nuestro control— sino por la calidad del proceso en condiciones de incertidumbre.
La paradoja es que reconocer nuestra ignorancia nos hace más efectivos. Cuando aceptamos que no podemos predecir, dejamos de malgastar recursos en planificación hiperelaborada y los invertimos en capacidad de respuesta rápida. Cuando admitimos que los modelos son mapas imperfectos, dejamos de seguirlos ciegamente hacia precipicios que el mapa no dibuja.
La ruleta es predecible. El futuro tecnológico, no. Seguir confundiéndolos no es un error técnico menor. Es el error que separa la confianza justificada de la arrogancia peligrosa —y en un mundo más complejo e interconectado cada año que pasa, esa distinción no hace más que ganar peso.
