
Vivimos instalados en una extraña disonancia cognitiva. Si abres cualquier periódico un martes por la mañana, la realidad te golpea con la crudeza de lo inmediato: crisis climática, alquileres impagables, sistemas sanitarios al límite y una tensión geopolítica que no deja de escalar. El mundo físico, el de carne y hueso, cruje por las costuras. Pero si cierras el periódico y abres X (antes Twitter) para leer a la élite tecnológica de San Francisco, pareces haber aterrizado en otro planeta. O en otra línea temporal.
Allí, en el timeline de los inversores de capital riesgo y los fundadores de las grandes compañías de IA, esos problemas terrenales apenas existen. La conversación no gira en torno a cómo arreglar el presente, sino sobre la inminente llegada de la Inteligencia Artificial General (AGI), la necesidad urgente de convertirnos en una especie multiplanetaria y las probabilidades matemáticas de vivir para siempre subiendo nuestras conciencias a la nube.
En medio de este ruido ensordecedor, el libro de Adam Becker, More Everything Forever, aterriza como un ladrillo sobre una mesa de cristal. No es un texto ludita, ni un manifiesto anti-tecnología escrito desde una cabaña en el bosque. Es un análisis hecho desde dentro, desde el amor a la ciencia y la física, que funciona como un freno de emergencia. Becker nos obliga a detenernos y formular la pregunta que, entre tanto hype y tanta promesa de salvación, muchos temen hacer en voz alta: ¿Qué narices está intentando hacer realmente Silicon Valley con el futuro de todos nosotros?
Lejos de comprar la narrativa de los cohetes a Marte o la inmortalidad digital, Becker disecciona la ideología que hay detrás. Su libro es una autopsia de cómo un grupo reducido de multimillonarios, armados con modelos bayesianos y cantidades obscenas de capital, ha decidido secuestrar la narrativa del destino humano.
Los nuevos arquitectos de la eternidad
Becker comienza retratando una escena que ya se ha vuelto costumbrista en el sector. Elon Musk, Sam Altman, Jeff Bezos o Peter Thiel no hablan del futuro como una incógnita llena de variables, sino como un problema de ingeniería ya resuelto sobre el papel. Hablan de trillones de seres humanos digitales viviendo en esferas de Dyson alrededor de estrellas lejanas, gozando de una felicidad infinita gestionada por inteligencias artificiales benévolas.
Lo peligroso, advierte el autor, es que esto no se presenta como el argumento de la próxima novela de Neal Stephenson o Iain M. Banks. Se presenta como una hoja de ruta corporativa. No son sueños; son KPIs para la humanidad. Esta visión, que combina elementos del transhumanismo y el cosmismo ruso, se ha convertido en el “sentido común” de la élite tecnológica.
El libro ilustra cómo esta narrativa ejerce una presión gravitatoria brutal sobre toda la industria. Se ha creado una jerarquía implícita, casi de castas: si estás trabajando en resolver la crisis de vivienda en tu ciudad o en mejorar la eficiencia de la red eléctrica actual, estás jugando en segunda división. La “liga de los mayores”, la que atrae el capital riesgo masivo y el prestigio intelectual, es la que promete AGI, colonización espacial y la derrota biológica de la muerte. Becker muestra cómo esta presión cultural distorsiona el mercado del talento: las mentes más brillantes de nuestra generación no están resolviendo los problemas del presente, sino intentando construir la arquitectura de un futuro hipotético que quizás nunca llegue.
Una religión para gente que cree en las hojas de cálculo
Quizás el argumento más fascinante y perturbador que despliega Becker es la identificación de este movimiento como una religión secular. En un mundo donde la religión tradicional ha retrocedido en los círculos intelectuales y técnicos de la Costa Oeste, ha quedado un “agujero con forma de Dios” que Silicon Valley se ha apresurado a llenar con tecnología.
Las similitudes estructurales que señala el libro son difíciles de ignorar una vez que las ves. El Dios trascendente ha sido sustituido por la Superinteligencia Artificial, un ente omnisciente y omnipotente que debemos “invocar” (construir) para que nos salve de nosotros mismos. El Paraíso ya no es un jardín edénico, sino una simulación digital o una colonia galáctica donde el sufrimiento ha sido “optimizado” hasta desaparecer. Incluso tienen su propio Día del Juicio Final: el “Riesgo Existencial” (o X-Risk), el momento en que la IA nos juzgará, y si no hemos seguido los mandamientos correctos de la “alineación”, nos borrará del mapa.
Becker etiqueta este conjunto de creencias como “salvación tecnológica”. Es la fe ciega en que no hay problema humano —político, social o espiritual— que no pueda resolverse con más cómputo, más energía y más ingeniería. Esta visión resuena profundamente en la psique del ingeniero porque ofrece un sentido de propósito trascendente sin necesidad de misticismo irracional, todo envuelto en el lenguaje reconfortante de las matemáticas y la lógica. Pero sigue siendo fe. Y como toda fe fundamentalista, tiene el peligroso potencial de justificar atrocidades presentes en nombre de un bien mayor futuro.
La despiadada ética del futuro lejano
Aquí es donde entramos en el terreno más denso y moralmente cuestionable: la crítica al longtermismo y a las corrientes más radicales del altruismo efectivo. Estas filosofías han pasado de ser debates oscuros en los departamentos de filosofía de Oxford a dictar cómo se mueven miles de millones de dólares en filantropía y lobby político.
La lógica longtermista, tal y como la desmonta Becker, funciona así: el futuro es inmensamente vasto. Podría haber trillones de seres humanos (o seres sintientes digitales) viviendo dentro de millones de años por toda la galaxia. Por tanto, matemáticamente, el valor acumulado de esas vidas futuras supera infinitamente el valor de los 8.000 millones de personas que viven hoy. Bajo este utilitarismo llevado al extremo, cualquier sacrificio actual está justificado si aumenta, aunque sea en un 0,00001%, la probabilidad de que ese futuro glorioso llegue a existir.
Becker lo bautiza acertadamente como una “ética de hoja de cálculo”. Es un sistema moral que permite a sus adeptos ignorar el sufrimiento real y presente —pobreza, enfermedades curables, cambio climático— para centrarse en evitar riesgos hipotéticos que podrían ocurrir dentro de mil años. Resulta ser una coartada moral perfecta para la élite: puedes acumular una riqueza obscena y no redistribuirla hoy, argumentando que la estás guardando para salvar a la humanidad futura de una IA malvada o un asteroide. El autor es implacable en este punto: basar decisiones éticas sobre vidas reales en probabilidades inventadas sobre escenarios de ciencia ficción no es racionalidad máxima, es fanatismo numérico.
El miedo al “Terminator” como maniobra de distracción
Otro pilar de este edificio ideológico es el pánico a la AGI descontrolada. Becker no niega que la IA tenga riesgos, pero cuestiona la narrativa específica del “Paperclip Maximizer” (una IA que destruye el mundo para hacer clips porque así se lo programaron accidentalmente) o los escenarios de toma de conciencia al estilo Skynet.
Para el autor, la obsesión mediática con estos escenarios de “Dioses de Silicio” funciona como una gigantesca cortina de humo. Mientras el mundo debate si GPT-6 cobrará conciencia y nos esclavizará, las empresas tecnológicas están desplegando sistemas que causan daños hoy, aquí y ahora. Hablamos de algoritmos que discriminan minorías en el acceso a créditos, sistemas de vigilancia biométrica que erosionan la privacidad, modelos generativos que canibalizan el trabajo creativo sin compensación y un consumo energético y de agua que compite con el de países enteros.
El miedo al apocalipsis futuro es tremendamente útil para las corporaciones porque desplaza la ventana de Overton. Si convences a los reguladores de Washington o Bruselas de que el peligro real es la extinción humana total, cualquier regulación sobre derechos de autor, derechos laborales o sesgos algorítmicos parece trivial, casi una molestia burocrática. Centrarse en el “riesgo existencial” es la táctica definitiva para evitar la rendición de cuentas por el “riesgo corporativo” actual.
Ecos del pasado: La pseudociencia del “mejoramiento”
Una de las partes más valientes y necesarias de More Everything Forever es cuando Becker conecta los puntos históricos. Al analizar las conversaciones actuales en Silicon Valley sobre “pronatalismo” (la idea de que la gente inteligente debe tener muchos hijos para salvar la civilización), la selección de embriones y la mejora genética del coeficiente intelectual, Becker ve los ecos inconfundibles de la eugenesia del siglo XX.
Aunque el lenguaje se ha modernizado —ahora hablan de “genómica poligénica”, “capital humano” y “optimización”—, la premisa subyacente es la misma: la idea de que algunos seres humanos son biológicamente superiores y que el futuro de la especie depende de maximizar su material genético. Becker denuncia cómo se utiliza el prestigio de la ciencia y la estadística para lavar la cara a ideologías que son, en esencia, elitistas y a menudo racistas.
El autor se muestra especialmente crítico con el uso de la matemática para dar una pátina de objetividad a prejuicios totalmente subjetivos. Tratar el futuro de la sociedad como una ecuación a optimizar ignora la complejidad caótica de la historia y la dignidad inherente de cada individuo, reduciendo a las personas a meros portadores de datos genéticos o unidades de utilidad económica.
No es un club de lectura, es un proyecto de poder
El libro no se queda en la crítica filosófica abstracta; sigue la pista del dinero. Becker dibuja el mapa de las instituciones que sostienen esta visión del mundo, demostrando que no es un movimiento orgánico, sino un ecosistema financiado deliberadamente.
Vemos cómo las fortunas tecnológicas fluyen hacia institutos de “Seguridad de IA”, becas para filósofos longtermistas y think tanks estratégicos. Se compran cátedras universitarias y se financian informes que luego aterrizan directamente en las mesas de los legisladores. La tesis de fondo es clara: este futurismo es un proyecto de clase.
Cuando ciertos líderes tech hablan del “futuro de la humanidad”, a menudo están hablando de un futuro diseñado por ellos y para gente como ellos. Es un futuro donde la democracia es vista como un obstáculo ineficiente (“ruido” en la señal) y donde la toma de decisiones debe recaer en una tecnocracia iluminada que “entiende” los riesgos mejor que el ciudadano común. Es, en definitiva, un intento de blindar su poder actual proyectándolo hacia la eternidad.
El error de confundir el mapa con el territorio
Becker tiene un punto a su favor: ama la ciencia ficción. Y precisamente por eso, sabe distinguir entre una buena historia y la realidad. Identifica con agudeza cómo Silicon Valley ha confundido el mapa con el territorio. Muchos fundadores crecieron leyendo a Asimov, Heinlein o Banks, y han confundido esas novelas con manuales de instrucciones.
El problema es la literalidad. La ciencia ficción sirve para explorar escenarios, para advertirnos, para soñar. Pero intentar forzar la realidad para que encaje en la trama de La Fundación es peligroso. Becker nos recuerda que “querer que algo sea verdad” (como la colonización de Marte o la Singularidad) no lo hace científicamente inevitable ni socialmente deseable. Convertir tu fanfic favorito en la estrategia económica de un planeta entero es una receta para el desastre.
Política “aburrida” para problemas reales
Frente a la espectacularidad de los cohetes y los cerebros digitales, Becker propone una alternativa que puede sonar decepcionante para el adicto a la adrenalina tecnológica, pero que es la única salida viable: la política.
El autor defiende que los grandes retos de nuestro tiempo no son puzzles técnicos esperando a un genio que los resuelva con código. El cambio climático, la distribución de la riqueza y el control de la tecnología son problemas profundamente políticos. Requieren negociación, compromisos, regulación, sindicatos y activismo. Requieren democracia, con toda su lentitud y sus imperfecciones.
En lugar de preguntarnos obsesivamente “¿Cómo maximizamos el número de vidas futuras en la galaxia?”, Becker sugiere una pregunta más humilde y potente: “¿Cómo reducimos el sufrimiento y aumentamos la dignidad de las personas que ya existen hoy?”. Esto no implica rechazar la IA o frenar la ciencia. Implica someter el desarrollo tecnológico a las prioridades democráticas de la sociedad, en lugar de dejar que la agenda la marque un puñado de hombres convencidos de ser los protagonistas únicos de la historia universal.
Si trabajas en tecnología —ya sea en producto, desarrollo, datos o diseño—, leer More Everything Forever es una ducha de agua fría. Es fácil dejarse llevar por la corriente, asumir que “progreso” siempre significa “lo que dicen las Big Tech” y que trabajar en la última LLM es intrínsecamente bueno para el mundo. Becker nos obliga a revisar nuestro marco mental y a ser conscientes de la ideología que viene empaquetada con nuestro salario. Al final, la tecnología es una herramienta poderosa, pero decidir qué futuro construimos con ella no es un problema de ingeniería; es una decisión sobre quiénes queremos ser. Y esa decisión no debería tomarse en una sala de juntas en Palo Alto.