De entre la numerosa literatura publicada sobre IA, destaca La era de la Inteligencia Artificial y nuestro futuro humano de Henry Kissinger, Eric Schmidt y Daniel Huttenlocher. El libro analiza los desafíos éticos, políticos y sociales que surgirán con la adopción masiva de la inteligencia artificial. Los autores argumentan que la IA cambiará la forma en que vivimos y trabajamos, y que es necesario que el público y las autoridades gubernamentales estén preparados para hacer frente a estos cambios.

La era de la Inteligencia Artificial y nuestro futuro humano explora temas tales como:

  • La posibilidad de reemplazar trabajos humanos con automatización
  • La necesidad de fomentar una adopción equitativa de la IA
  • La ética de la IA y los riesgos potenciales de sesgo y discriminación

Que aporta de realmente nuevo?

La era de la Inteligencia Artificial y nuestro futuro humano trae varios elementos nuevos y relevantes al debate sobre la IA:

  • Un enfoque amplio y multidisciplinario: Aborda un amplio espectro de aspectos de la IA, desde la automatización hasta la ética, y combina perspectivas de líderes en la política, la tecnología y la academia.
  • Una visión global: Se centra en las implicaciones globales de la IA, examinando cómo afectará a distintas culturas y sociedades en todo el mundo.
  • Una reflexión sobre el futuro: Ofrece una visión a largo plazo de cómo la IA cambiará nuestro futuro, y plantea preguntas cruciales sobre cómo debemos prepararnos para ese cambio.

En realidad, el libro desafía ciertas creencias y teorías establecidas al afirmar que la IA seguirá bajo control humano, en contraste con la idea común de que la IA terminará por superar a los humanos. Esto plantea una visión más optimista de la relación entre humanos y tecnología, y sugiere que la IA no es una amenaza para la humanidad, sino una herramienta que podemos usar para mejorar nuestras vidas.

Principales ideas de La era de la Inteligencia Artificial y nuestro futuro humano

  • Desde Turing hasta hoy
  • Redes globales
  • Seguridad y defensa
  • IA e identidad humana
  • IA y el futuro

Desde Turing hasta hoy

La IA ha progresado rápidamente desde conceptos teóricos hasta tecnologías avanzadas, como el aprendizaje automático, que siguen superando nuestras expectativas. 

Fue el científico y filósofo del siglo XX Alan Turing quien propuso una evaluación pionera para determinar si las máquinas podían exhibir una inteligencia a nivel humano. Su idea era ofrecer a las máquinas desafíos creativos en lugar de pruebas matemáticas. Turing describió un experimento en el que un evaluador humano mantenía conversaciones escritas con una computadora y otro humano, sin saber cuál era cuál. Luego, el evaluador juzgaría la capacidad de la máquina para demostrar respuestas, razonamiento e inteligencia emocional similares a los humanos a través de sus capacidades de lenguaje natural. 

Este enfoque puso énfasis en probar la capacidad de una máquina para tareas como fluidez del lenguaje, resolución de problemas y adaptación a nueva información. La destreza matemática por sí sola no era suficiente. Los criterios de inteligencia de Turing, conocidos como prueba de Turing, siguen siendo influyentes hoy en día y configuran puntos de referencia clave del progreso de la IA más allá de las métricas de velocidad y precisión.

Los investigadores descubrieron que el código basado en reglas por sí solo no podía replicar la cognición humana. Por eso se desarrollaron técnicas que utilizan redes neuronales (es decir, redes de nodos utilizados para el aprendizaje automático) para permitir que la IA aprenda información ambigua e imperfecta tal como lo hacemos nosotros. Si se alimenta a una IA con suficientes ejemplos de estructuras moleculares y eficacia de los antibióticos, predecirá nuevos medicamentos potentes imprevistos por la ciencia. Aliméntelo con novelas clásicas y artículos de noticias, y escupirá historias originales, a menudo inquietantes. 

Además de ordenar a los programas que hagan exactamente lo que se les dice, se ha desarrollado código para aprender basándose en datos de entrenamiento.

En el campo de la biología, el sistema de predicción del plegamiento de proteínas AlphaFold lo demuestra bien. Logró índices de precisión muy por encima de la ciencia existente al entrenarse con datos de ADN, lo que permitió a los biólogos validar teorías a una escala increíble. 

Para ello, los científicos utilizaron enormes bases de datos, como el Protein Data Bank, que contiene más de 170.000 estructuras de proteínas en 3D determinadas experimentalmente. También utilizaron conjuntos de datos como UniProt, que incluyen millones de secuencias de proteínas sin estructuras 3D conocidas. Con la información combinada de estos conjuntos de entrenamiento, AlphaFold aprendió cómo deberían verse las proteínas plegadas correctamente y generalizó qué proteínas aún no se habían resuelto. Después de mucho perfeccionamiento, esta capacitación produjo resultados sin precedentes para predecir el plegamiento de proteínas y abrió posibilidades para comprender mejor las enfermedades y las interacciones farmacológicas. 

Por muchas ventajas que tenga, la IA tiene sus limitaciones, y éstas a menudo se revelan a través de sesgos y errores impredecibles.

Las fallas en los datos de entrenamiento o la supervisión humana pueden distorsionar gravemente los resultados del sistema, como cuando el chatbot Tay de Microsoft comenzó a arrojar lenguaje racista y sexista después de la interacción pública. Y la falta de contexto al procesar información provoca errores de IA que ninguna persona cometería. 

Los grandes modelos de lenguaje, como ChatGPT, funcionan entrenando el sistema de inteligencia artificial en conjuntos de datos de texto masivos, lo que le permite aprender patrones de matices sobre cómo funcionan el lenguaje y la escritura. Los sistemas predicen la siguiente palabra más probable de una oración y crean un texto fluido y similar al humano. Los modelos grandes se optimizan para continuar secuencias de texto con fluidez, no por precisión o veracidad. Entonces, sin supervisión, pueden generar con confianza textos creíbles pero completamente inventados o poco éticos, como lo que vimos en Tay. 

Por lo tanto, es crucial que inculquemos responsabilidad para que la IA se alinee de manera confiable con la ética y el beneficio social. Los países implementan certificación profesional, estándares y monitoreo de cumplimiento porque el crecimiento de la tecnología no se desacelerará por sí solo. Pero se avecinan posibilidades interesantes si se guía adecuadamente con abogados, asistentes e incluso artistas potenciales de IA, que produzcan obras creativas asombrosas que reflejen la belleza diversa de las culturas humanas.

Redes globales

Las poderosas plataformas digitales son ahora intrínsecas a la vida moderna y dependen en gran medida de la inteligencia artificial para optimizar las experiencias de miles de millones de usuarios en todo el mundo. Servicios como las redes sociales, el comercio electrónico y los motores de búsqueda utilizan algoritmos para personalizar la información y los productos que vemos. 

Esto aporta inmensas ventajas, pero también plantea cuestiones complejas en torno a la rendición de cuentas. Cuando la IA selecciona contenido, sin darse cuenta puede promover divisiones sociales o limitar el discurso académico esencial para la democracia.

Facebook demuestra esta tensión. Sus algoritmos destacan por mostrar a los usuarios el contenido preferido y sus amigos para aumentar la participación en la plataforma. Sin embargo, también permitieron que se difundiera rápidamente información errónea sensacionalista durante las elecciones recientes, generando una visión de túnel digital basada en la indignación y el clickbait. Sin embargo, las posibles soluciones también corren el riesgo de censurar las voces. La plataforma ha ampliado los estándares comunitarios y los procedimientos de eliminación para combatir publicaciones tóxicas y cuentas falsas. Pero es inevitable que se produzcan errores, que tal vez impidan a activistas o periodistas compartir perspectivas controvertidas pero vitales.

Estos mecanismos de moderación resaltan las deficiencias de la IA a la hora de analizar contextos matizados. Las máquinas no pueden juzgar cada situación a la perfección, especialmente el contenido que involucra humor, disidencia política y más. ¿La censura de material problemático limita la exposición saludable a ideas desagradables que generan resiliencia social? ¿Qué principios morales e intelectuales queremos que viva nuestra sociedad? ¿Y cómo podemos asegurarnos de que la IA cumpla con estas expectativas sociales? 

A medida que dependemos de una IA cada vez más sofisticada y, por lo tanto, menos transparente para moderar y dar forma al contenido, las ramificaciones políticas y tecnológicas de estas opciones aún no están claras. El ritmo de avance es demasiado rápido para que muchos países decidan si la IA debe implementarse en su cultura y cómo. Esto significa que la IA está imbuida de ciertos supuestos sociales que están determinados por la cultura que la desarrolló, más que por las culturas que la utilizan. 

Y los gobiernos no son los únicos actores. El ejemplo de Facebook que analizamos es un buen ejemplo de cómo las grandes empresas que utilizan la IA pueden impactar el panorama geopolítico para mantener una ventaja competitiva. Cuando el conocimiento es poder, debemos preguntarnos quién controla el flujo de conocimiento. 

En general, los avances tecnológicos en IA han planteado cuestiones tan antiguas como la propia disidencia humana. Las diferencias de opinión, la desinformación y la verdad percibida siempre han competido en los espacios públicos. Pero la escala global y la sofisticación de la tecnología moderna aumentan estas preguntas. Es importante que consideremos las consecuencias de largo alcance de nuestras decisiones en torno a la IA si queremos construir un mundo que aproveche al máximo esta increíble tecnología. 

Seguridad y defensa

Ya estamos siendo testigos de cómo la IA emula y a menudo supera a los humanos en la adquisición y aplicación de conocimientos, pero junto con emocionantes promesas para el futuro, también entran en juego fuerzas más oscuras. 

Al igual que el desarrollo de armas nucleares en la década de 1940, la IA promete revolucionar la tecnología de defensa. Su integración en áreas como la selección de objetivos con armas, la coordinación de enjambres de drones y la defensa de redes introduce nuevos peligros que carecen de precedentes históricos. A diferencia de cruzar la “línea roja” de no retorno que disuade a las naciones de lanzar un ataque nuclear, la IA desdibuja el control humano. Además, la expansión de las capacidades de ataque complica gravemente la estrategia de seguridad.

Veamos un ejemplo. Las armas cibernéticas autónomas habilitadas por IA podrían buscar vulnerabilidades en las redes de forma independiente después de ser liberadas. Potencialmente, podrían adaptar su codificación para extenderse más allá de lo previsto, lo que significa que los modelos de disuasión tradicionales basados ​​en riesgos de escalada percibidos se vuelven poco confiables. Si el malware adversario utiliza IA para disfrazar los ataques como fallos del sistema, también resulta difícil darse cuenta a tiempo de una respuesta adecuada. 

La doctrina nuclear de la Guerra Fría se basó en señales claras de amenaza para prevenir crisis. Pero la ambigüedad rodea estas nuevas dinámicas de defensa, y eso trae inestabilidad a las conversaciones de paz internacionales. 

Además, la IA integrada en el lado estratégico de la defensa puede asesorar a los comandantes de manera involuntariamente sesgada durante operaciones complejas. El software de reconocimiento actual puede tener dificultades para diferenciar objetos básicos cuando las condiciones de iluminación o los ángulos cambian ligeramente. ¿Confiamos en la IA para decidir objetivos en función del reconocimiento facial o patrones de comportamiento? ¿Quién, si es que hay alguien, es responsable de las decisiones que toma una IA en una situación de combate? 

Existen organizaciones como el Instituto de Investigación de Radiobiología de las Fuerzas Armadas para asesorar al ejército estadounidense sobre incidentes relacionados con la radiación, pero no existe ningún equivalente para asesorarlos sobre la IA. Esto significa que las mayores potencias militares mundiales son vulnerables, tanto al uso indebido de la IA en el campo como al uso de la IA en su contra de maneras impredecibles.

Por lo tanto, la planificación de la defensa debe equilibrar los riesgos emergentes con las realidades de la tecnología de seguridad actual. Debemos mirar hacia el futuro, pero también comprender cómo funciona realmente la IA en el presente. Pero a medida que esta tecnología emerge, tenemos la oportunidad de desarrollar normas éticas y canales de cooperación a nivel internacional, guiando un crecimiento responsable.

La bala no tiene por qué preceder a la diplomacia, como ha sucedido antes. A través de la colaboración académica y la conveniencia política, es posible que la IA progrese de forma segura sin convertirse primero en una amenaza. Pero si no tenemos la previsión de actuar ahora, podríamos ver a la IA alterar el orden global de maneras sin precedentes. 

IA e identidad humana

A medida que la IA demuestra capacidades que alguna vez se consideraron claramente humanas, su avance plantea preguntas filosóficas sobre la relación de la tecnología con la identidad humana. Los sistemas ahora crean arte, música, literatura y más con una sofisticación cada vez mayor, lo que permite nuevas posibilidades creativas. Sin embargo, a medida que las máquinas invaden ámbitos subjetivos que durante mucho tiempo nos han proporcionado significado, surgen riesgos sobre cómo podríamos depender demasiado de la realización sintética.

Los niños que utilizan compañeros de IA pueden sentirse tan cómodos con los consejos personalizados que, en comparación, la variación humana parece insatisfactoria. Y si la tecnología filtra la información alineándola con sesgos internos, la comprensión de perspectivas alternativas también podría disminuir. La innovación podría limitar una exposición saludable a estímulos desagradables que generen resiliencia. 

A medida que las creaciones emergentes de IA también reemplazan los roles ocupados por las personas, muchos de nosotros también podemos luchar contra el desplazamiento. Ya estamos viendo importantes perturbaciones en casi todas las industrias, desde trabajos creativos hasta trabajos tecnológicos. ¿Cuándo es importante que haya un humano detrás del pincel? ¿Qué significa cuando una persona aprende sobre la experiencia humana a través de una obra de arte o una canción sin un creador humano?

Consideremos los algoritmos de detección de emociones que ahora analizan las expresiones faciales, los tonos vocales y la sintaxis durante las conversaciones para inferir estados internos. Algunas aplicaciones tienen como objetivo prevenir daños identificando a quienes ocultan angustias. El puente Mapo en Seúl, Corea del Sur, incorporó un sistema de prevención de suicidios con IA después de que el punto de referencia se convirtiera en un lugar de alto riesgo. Utilizando imágenes de CCTV equipadas con análisis de video de aprendizaje profundo, los sensores de IA identifican a las personas en riesgo y alertan a los servicios de emergencia para que intervengan. 

Pero juzgar lógicamente los estados subjetivos de las personas conlleva el riesgo de ser visto como deshumanizante, lo que puede alejar a las personas de la idea. Necesitamos lograr un equilibrio entre la eficacia de este tipo de sistemas, para que la tecnología aumente sin aislar las necesidades humanas. Si bien se informa que la tasa de suicidio en el Puente Mapo ha disminuido en más del 75 por ciento desde la implementación del sistema de inteligencia artificial, esto no aborda el clima social subyacente que conduce a una tasa de suicidio tan alta en primer lugar. 

Al igual que otros cambios sísmicos, si se guía concienzudamente, la IA remodelará las concepciones de propósito y hará realidad un enorme potencial. Si las prioridades éticas dirigen el avance de la IA, la mejora del acceso y el descubrimiento pueden mejorar la mayoría de las veces. Si se establecen límites suficientes, se protegerán dominios donde los humanos crean, exploran y se conectan sin dependencia tecnológica. Con suficiente previsión, la IA puede iluminar el viaje de la vida humana en lugar de disminuirlo. Los riesgos son sustanciales, pero también lo son las posibilidades.

IA y el futuro

Cuando se inventó la imprenta, por primera vez, la información se volvió más accesible para todos más allá de los manuscritos escritos a mano de la iglesia. Posteriormente, la creación de Internet nos permitió encontrar información a nivel global, brindándonos acceso en tiempo real a noticias y hallazgos científicos del otro lado del mundo. 

Al igual que la imprenta e Internet, la IA promete otra inmensa transformación en la forma en que accedemos y entendemos la información. Sus capacidades emergentes para el razonamiento y la creación similares a los humanos revelan este potencial a diario, desde conocimientos médicos hasta maravillas artísticas. Sin embargo, en cualquier transición, el cambio también puede ser perjudicial. Ya estamos viendo a la gente resentirse con la tecnología, o con nosotros de manera irresponsable. El progreso exige una orientación proactiva y ética para garantizar que la IA nos ayude más de lo que nos dañe.

Aquellas sociedades que adoptan ampliamente la IA enfrentan opciones que determinan cómo y cuándo se otorga el control en todos los contextos. Algunos campos, como el monitoreo ambiental, podrían ceder por completo a algoritmos que rastrean la dinámica de los ecosistemas indetectables por los sentidos humanos limitados. 

Otras áreas, como la aplicación de la ley, requerirán supervisión humana para garantizar que los derechos constitucionales sigan protegidos por tecnologías propensas a sesgos al analizar las identidades. En 2020, la policía de Detroit comenzó a utilizar sistemas de reconocimiento facial para identificar a sospechosos de delitos. Sin embargo, múltiples auditorías de prejuicios raciales encontraron que el software tenía una tasa de error de hasta el 96 por ciento para identificar con precisión los rostros afroamericanos y asiáticos. 

El error provino de los datos de entrenamiento de la IA, que consistían principalmente en caras blancas. El desarrollo responsable de sistemas como este requiere preguntas deliberadas sobre cómo se debe utilizar la IA, qué prejuicios tienen y quién es responsable cuando le fallan a la comunidad. Tras las críticas públicas y las demandas que citaban la infracción de los derechos civiles por parte del sistema, la policía de Detroit abandonó la tecnología. 

Pero es difícil imaginar la vida moderna sin asistentes digitales y guías de inteligencia artificial. Nuestra dependencia continua da forma al pensamiento mismo, a medida que mecanismos externos asumen funciones básicas. Los pensadores de la Ilustración consideraron al individuo como la primera entre las unidades políticas y definieron el propósito de la razón como liberar el potencial humano. Cuando la IA filtra nuestro acceso a la información en función de lo que predetermina que es nuestra preferencia, limita nuestra libertad y afecta su utilidad en una sociedad democrática. 

Sin embargo, esto no es una condena a la IA, ya que la innovación no deja intacto ningún aspecto de la civilización. Si planteamos estas cuestiones éticas y morales con suficiente antelación, podremos incorporar la IA a nuestra sociedad evitando al mismo tiempo estos escollos. Aquellas culturas que equilibren la tecnología y la sabiduría navegarán los tumultuosos períodos venideros con sus valores intactos. Y si el progreso se basa en prioridades éticas, la inteligencia artificial aún puede reforzar nuestra humanidad compartida. La única manera de dar forma al futuro es participando en el presente. 

Imagen de Peace,love,happiness en Pixabay

Post relacionados: