El futuro es fascinante, excitante y en gran medida impredecible. Hay muchas cosas que pueden suceder, ya sea tecnologías disruptivas, avances en la salud y la medicina, cambio climático, nuevos avances en la biotecnología o la robotización, e incluso el avance de la exploración espacial. Pero creo que es importante trabajar juntos para construir un futuro mejor, teniendo en cuenta los retos y las oportunidades que se nos presenten en el camino.

Una manera constructiva de pensar en el futuro es el largoplacismo. Esta es la tesis principal de Lo que le debemos al futuro: Qué debemos hacer hoy para garantizar un mundo feliz a nuestros nietos de William MacAskill. El autor expresa que nuestra responsabilidad moral más importante es influir positivamente en el futuro lejano o «largoplacismo». Su argumento es que la manera en que actuamos hoy puede tener consecuencias enormes para las generaciones futuras, así que debemos pensar en los efectos a largo plazo de nuestras decisiones.

Para MacAskill, esto implica que deberíamos centrarnos en los problemas y los objetivos a largo plazo, como el cambio climático y la explotación animal, y trabajar para crear un mundo mejor para las generaciones futuras.

William MacAskill es un filósofo, escritor y activista social, uno de los fundadores del movimiento del altruismo efectivo, que busca maximizar el impacto positivo en el mundo a través de un análisis racional de las consecuencias de las acciones.

Principales ideas de Lo que le debemos al futuro

  • ¿Por qué son importantes las personas del futuro?
  • ¿Es inevitable el progreso moral?
  • ¿Cómo podemos mejorar el futuro?
  • ¿Cómo podríamos causar la extinción humana o el colapso de la civilización?
  • ¿Cómo podemos salvaguardar el futuro?
 

¿Por qué son importantes las personas del futuro?

¿Qué harías si supieras que tendrás que vivir la vida plena de cada persona en el futuro, desde su nacimiento hasta su muerte, sin importar cuán buena o mala sea? ¿Te gustaría que, en el presente, reduzcamos las emisiones de carbono para aumentar la calidad de su vida? ¿Quieres que tengamos cuidado con las nuevas tecnologías? ¿Te gustaría que prestáramos atención a cómo nuestras acciones de hoy impactan las condiciones del mañana?

Tu respuesta a todas estas preguntas probablemente sea «sí». Por supuesto que querrás que hagamos todo lo posible para crear un buen futuro para ti. 

Después de todo, podría haber mucha gente en el futuro. Y según el largoplacismo, tenemos tanto la obligación como la capacidad de mejorar sus vidas. 

La cantidad de personas del futuro es relevante por una sencilla razón. Si tuvieras que salvar a una o diez personas de un edificio en llamas, en igualdad de condiciones, deberías salvar a diez. 

En el caso de la humanidad, la esperanza de vida de nuestra especie podría ser vertiginosamente larga. Si sobrevivimos hasta que la Tierra deje de ser habitable, en cientos de millones de años, podría haber un millón de personas en el futuro viviendo por cada persona viva hoy.

Todas esas vidas pueden ser prósperas o miserables, y nosotros tenemos influencia sobre el resultado. Colectivamente, como lo han demostrado los últimos doscientos años de historia, tenemos el poder de mejorar la esperanza de vida, reducir la pobreza, aumentar la alfabetización e influir en todo tipo de otras tendencias positivas. Por otro lado, también podemos generar resultados muy malos, como los regímenes totalitarios que surgieron en el siglo XX. 

Por supuesto, así como nuestro futuro podría ser mucho más largo, también podría ser mucho más corto si causamos nuestra propia extinción. Evitar ese resultado es una gran parte de nuestra responsabilidad y hablaremos mucho de ello en las próximas secciones.

¿Es inevitable el progreso moral?

En el mundo actual parece obvio que la esclavitud es abominable e inaceptable. Sin embargo, se practicó en la mayoría de las culturas, en la mayoría de los lugares y en la mayoría de los momentos de la historia. 

Teniendo esto en cuenta, la abolición de la esclavitud es en realidad bastante misteriosa. Era históricamente ubicua, económicamente rentable, había durado siglos y era defendido por personas influyentes. Sin embargo, la esclavitud fue efectivamente abolida, primero por Gran Bretaña y después por otros países. ¿Fue esto simplemente el resultado inevitable del progreso moral? 

El autor sostiene que muchos acontecimientos y factores específicos probablemente hicieron que la abolición fuera más probable. Entre ellos se incluye el activismo de un pequeño número de cuáqueros, un grupo religioso de los siglos XVIII y XIX. Fue la primera organización de la historia en llevar a cabo una campaña abolicionista y su activismo inspiró a una generación de influyentes abolicionistas británicos. 

Visto de esta manera, el abolicionismo ocurrió en un momento crucial en el que múltiples piezas del rompecabezas moral estaban alineadas. Las creencias morales del mundo fácilmente podrían haber sido muy diferentes de las que conocemos hoy, y la esclavitud aún podría haber existido en todo el mundo. 

Desde una perspectiva a largo plazo, cambiar los valores de la sociedad es increíblemente importante. Más específicamente, es importante poder cambiarlos

Los valores pueden ser muy persistentes. Para ver esto, basta con mirar las ventas de Biblias. A pesar de haber sido escrito hace más de dos mil años, es el libro más vendido cada año, seguido por el Corán. Estos libros todavía influyen en innumerables resultados políticos en todo el mundo. 

Debido a que los valores pueden ser tan persistentes, queremos evitar el bloqueo de valores: cualquier evento que haga que un sistema de valores único persista durante un tiempo extremadamente largo. Si el bloqueo de valores ocurriera a escala global, la bondad o la maldad del futuro estaría determinada en gran medida por qué valores quedaran bloqueados. Imagínese si la esclavitud hubiera sido parte de un sistema de valores bloqueado. 

Afortunadamente, el estado actual del universo moral se parece mucho al vidrio fundido. En su estado caliente y altamente maleable, diferentes puntos de vista morales pueden competir para alterar e influir en la forma final. Sin embargo, los avances tecnológicos podrían poner fin a esto, como veremos a continuación.

¿Cómo podemos mejorar el futuro?

Cuando se piensa en el potencial de fijación de valor, una tecnología resulta particularmente preocupante. Eso es inteligencia artificial general, o AGI: un sistema que puede aprender y realizar una amplia gama de tareas al menos al mismo nivel que los humanos. 

AGI hace posible la fijación de valor por dos razones. En primer lugar, la AGI podría potencialmente acelerar en gran medida el crecimiento tanto tecnológico como económico. Si un país produjera un número cada vez mayor de trabajadores de IA, su economía podría crecer indefinidamente. En segundo lugar, AGI es potencialmente inmortal: el software se replica fácilmente y, una vez creado, no se puede destruir.

Utilizando esta tecnología, una persona, grupo o país podría crear agentes productivos, inteligentes y capacitados con objetivos estrechamente alineados con los suyos propios. La AGI entonces podría actuar y promover esos objetivos. Incluso podría codificarse para lograr un futuro muy específico o usarse para emular indefinidamente la estructura cerebral de alguien. O todos estos a la vez.

Es posible, entonces, que alguien pueda utilizar AGI para acabar con puntos de vista morales opuestos. ¿Querrían hacerlo? Lamentablemente, si miramos la historia, es posible que así sea. Históricamente, innumerables cruzadas religiosas y purgas ideológicas han buscado eliminar a personas que sostienen puntos de vista opuestos.

Por supuesto, no sabemos exactamente cuándo se desarrollará AGI. Las conjeturas entre los expertos en aprendizaje automático difieren enormemente, pero el pronóstico más sólido hasta la fecha lo realizó la analista Ajeya Cotra. Según su investigación, Contra supone que hay una probabilidad superior al 10 por ciento de que se desarrolle AGI para 2036 y una probabilidad del 50 por ciento para 2050. 

Incluso si faltan siglos para el AGI, todavía deberíamos considerar el bloqueo de valores, porque cualquier cosa que suceda en el intervalo podría afectar qué valores eventualmente quedarán bloqueados. Si un sistema de valores es capaz de afianzarse globalmente, habría poca presión para que cambie con el tiempo. Sus opiniones podrían persistir durante miles de años. Con AGI, podrían persistir para siempre.

Teniendo esto en cuenta, deberíamos aspirar a un mundo moralmente exploratorio, uno en el que las normas e instituciones que son moralmente mejores sean las que tienen más probabilidades de prevalecer con el tiempo. Esto nos permitirá eventualmente converger hacia la mejor sociedad posible.

Además, deberíamos favorecer el experimentalismo político. Una forma de hacerlo es desarrollando ciudades charter: comunidades autónomas que operan bajo leyes diferentes a las de los países circundantes. Podríamos tener ciudades autónomas basadas en el marxismo, el ambientalismo, el comunitarismo anarquista, lo que sea. Estos podrían usarse para determinar empíricamente qué conjuntos de valores generan la mejor sociedad. 

Aparte de la fijación de valores, ¿de qué otra manera podría terminar o colapsar la civilización? Hablaremos de eso a continuación.

¿Cómo podríamos causar la extinción humana o el colapso de la civilización?

En 1994, un cometa llamado Shoemaker-Levy 9 se estrelló contra el planeta Júpiter. Lo hizo con la fuerza de trescientos mil millones de toneladas de TNT, dejando una cicatriz literalmente del tamaño de la Tierra.

Los científicos llevaban años advirtiendo sobre los peligros de los impactos de asteroides. Por lo general, se reían de ellos… hasta el accidente de Júpiter. Después de eso, el interés público y la defensa entre la comunidad científica aumentaron hasta que el Congreso tomó medidas. En 1998, lanzó la iniciativa Spaceguard, que encargó a la NASA encontrar el 90 por ciento de todos los asteroides y cometas cercanos a la Tierra de más de un kilómetro en una década. La iniciativa fue un éxito: la NASA ha encontrado más del 98 por ciento de los cuerpos astrales que podrían amenazar nuestra extinción. Nuestro riesgo de ser golpeado por un asteroide es cien veces menor que antes de Spaceguard.

Este ejemplo muestra que la humanidad tiene una capacidad real para mitigar las amenazas existenciales, siempre que las tomemos en serio. Actualmente, existen riesgos mucho mayores que los asteroides, y debemos estar a la altura del desafío de abordarlos.

Uno de ellos es el riesgo de una pandemia diseñada; en otras palabras, el brote de una enfermedad que diseñamos nosotros mismos utilizando la biotecnología. Se pueden crear patógenos diseñados para que tengan combinaciones peligrosas de características: piense en algo tan letal como el Ébola y tan contagioso como el sarampión. Otros riesgos provienen del hecho de que personas normales podrían replicar fácilmente nuevos patógenos en el hogar, y de que los laboratorios que realizan trabajos biotecnológicos tienen estándares de seguridad preocupantemente laxos. Las fugas de laboratorio confirmadas ya han provocado brotes de ántrax, viruela, ébola y más. 

Según diversas estimaciones, la probabilidad de que se produzca una pandemia a nivel de extinción en este siglo es de entre el 0,6 y el 3 por ciento. Pero la extinción no es el único resultado que debería preocuparnos. 

¿Podríamos recuperarnos si el 99 por ciento de las personas murieran a causa de una pandemia o una guerra nuclear? Hay alguna razón para pensar que lo haríamos. Para empezar, incluso si la mayoría de la gente muriera, la infraestructura física y las máquinas seguirían siendo en gran medida utilizables, al igual que las bibliotecas y los archivos digitales que contienen la mayor parte de nuestro conocimiento.

Sin embargo, podrían surgir complicaciones si no dejamos suficientes reservas de combustibles fósiles bajo tierra. Esto se debe a que, históricamente, los combustibles fósiles parecen fundamentales para la industrialización. Cuando un país comienza a industrializarse, casi siempre quema primero mucho carbón y luego pasa al petróleo y al gas. El agotamiento de los combustibles fósiles podría obstaculizar seriamente nuestra capacidad de recuperarnos de un colapso. 

Es posible que podamos obtener algo de electricidad de los parques solares y eólicos restantes, pero estos se degradan en tan solo unas pocas décadas. Crear otros nuevos sería muy difícil sin la ayuda de cadenas de suministro internacionales avanzadas. Además, la energía solar y eólica no pueden proporcionar el calor de alta temperatura necesario para fabricar cemento, acero, ladrillo y vidrio. Baste decir que cuanto más agotemos nuestros recursos de combustibles fósiles, peor estaremos.

¿Cómo podemos salvaguardar el futuro?

Ahora que hemos cubierto los muchos caminos malos que podría tomar la civilización, probablemente te estés preguntando cómo puedes ayudar a reducir el riesgo existencial.

En general, algunas reglas generales clave pueden ayudarnos a guiarnos en nuestros esfuerzos por influir en el futuro a largo plazo. La primera es tomar acciones que sean sólidamente buenas o que tú estés bastante seguro de que son buenas. Promover la innovación en tecnologías limpias es un gran ejemplo que se ajusta a esta regla. Ayuda a mantener los combustibles fósiles bajo tierra, disminuye el impacto del cambio climático, promueve el progreso tecnológico y reduce el número de muertes por contaminación del aire.

La segunda regla general para influir en el futuro es aumentar el número de opciones que tiene a tu disposición. Por ejemplo, determinadas trayectorias profesionales ofrecen más oportunidades que otras. Un doctorado en economía o estadística te brindará más opciones que, digamos, uno en filosofía.

Finalmente, la tercera regla general es seguir aprendiendo más. Individual y socialmente, siempre podemos seguir ampliando nuestro conocimiento sobre diferentes causas y cuestiones importantes

Ahora que tienes directrices generales para mejorar el mundo, debes decidir en qué problema específico quieres centrarte. Aquí priorizar es fundamental. Como muchas personas, es posible que desees elegir un problema que sea cercano a tu corazón, tal vez porque te afecta a ti o a un ser querido. Sin embargo, es posible que esa causa no tenga un gran impacto global. Las áreas de causas de mayor impacto son aquellas de las que hemos hablado: fijación de valor, AGI, biotecnología, cambio climático y estancamiento tecnológico. 

Una vez que hayas elegido el problema que cree que es más urgente, es hora de actuar. Nuevamente, mucha gente no hace esto de la manera óptima. Por ejemplo, cuando las personas deciden promover el bienestar animal, muchos de ellos inmediatamente se vuelven vegetarianos, tal como lo hizo el autor cuando tenía 18 años.

Aunque este tipo de acción personal es comprensible, los efectos son bastante minúsculos. Ser vegetariano cuando eres joven reduce la huella de carbono total de tu vida en una décima parte, o alrededor de sesenta y cuatro toneladas de carbono en ochenta años. Compara eso con una donación única de $3,000 al Clean Air Task Force. Las estimaciones sugieren que una donación de este tipo reduciría las emisiones de dióxido de carbono del mundo en tres mil toneladas por año, exponencialmente más que ser vegetariano toda la vida.

Además de donar dinero, otra acción de alto impacto es el activismo político, cuya forma más simple es el voto. Aunque la posibilidad de que tu voto específico o su trabajo por una causa marque una diferencia mensurable, el retorno puede ser muy alto si su campaña tiene éxito. 

Otra acción impactante es difundir buenas ideas entre tus familiares y amigos. La discusión entre amigos es una excelente manera de aumentar la participación política y puede motivar a las personas a trabajar en temas importantes.

La decisión final de alto impacto es tener hijos. Sí, es cierto que sus hijos producirán emisiones de carbono. Pero también harán muchas cosas buenas, como contribuir a la sociedad, innovar y abogar por el cambio político

Tener más hijos también reduce el riesgo de que nos estancamos tecnológicamente. El estancamiento es un gran riesgo porque podríamos desarrollar potentes herramientas destructivas antes de que tengamos formas de defendernos contra ellos. Es posible que estemos entrando en un estado insostenible en el que somos capaces de crear bioingeniería de patógenos que podrían acabar con nosotros sin una manera de mitigar los riesgos. 

Además, a medida que avanzamos tecnológicamente, tendemos a elegir la fruta más fácil: la tecnología más fácil de desarrollar. Con el tiempo, encontrar inventos igualmente importantes se vuelve cada vez más difícil. Hasta ahora, hemos solucionado el problema simplemente aumentando el número de investigadores, ingenieros e inventores. Pero esa tendencia no puede continuar. La caída de las tasas de fertilidad significa que la población mundial se estabilizará para 2100 y luego disminuirá exponencialmente, según datos de la ONU. Si la tasa de fertilidad global cae a 1,5 hijos por mujer –⁠ la tasa actual en Europa–⁠ la población mundial se reducirá de diez mil millones a menos de cien millones dentro de 500 años. 

Independientemente de lo que elija hacer para influir en el futuro, recuerde una cosa: una persona puede marcar la diferencia. Todo movimiento social y político a lo largo de la historia fue el resultado de combinaciones de esfuerzos individuales. Tú –⁠ nosotros–⁠ podemos ayudar a orientar el futuro hacia una mejor trayectoria, para todas las personas futuras que aún están por nacer.

Conclusiones de Lo que le debemos al futuro

El largoplacismo, en pocas palabras, es una filosofía que dice que las personas del futuro merecen nuestra consideración, que podrían ser muchas y que podemos mejorar sus vidas. Las personas del futuro están privadas de sus derechos: no pueden votar, hacer lobby, postularse para cargos públicos, escribir artículos ni participar en protestas. Sin embargo, nuestras acciones los afectarán enormemente. Si no tenemos cuidado, podríamos causar un bloqueo de valor negativo con el desarrollo de AGI (AGI (Inteligencia Artificial Generalizada), acabar con la humanidad con un patógeno diseñado mediante bioingeniería o inhibir nuestra capacidad de responder a amenazas existenciales estancándonos tecnológicamente. Las mejores formas de salvaguardar el futuro son donar dinero a organizaciones benéficas altamente eficaces, participar en activismo político, fomentar el debate y tener hijos.

Image by Photo Mix from Pixabay

Post relacionados: