A diferencia de otros libros sobre inteligencia artificial que se enfocan en los avances tecnológicos en el campo, Cade Metz en Genius Makers: The Mavericks Who Brought A.I. to Google, Facebook, and the World echa un vistazo a las personas detrás de la tecnología. Más específicamente, la historia se centra en Geoffrey Hinton.

Hinton es un padrino de la investigación de IA y del aprendizaje profundo (en mayo 2023 abandonó Google, donde era vicepresidente de Ingeniería, alertando del peligro de la IA). Su enfoque conexionista de la IA y el desarrollo de la retropropagación o backprop ha llevado a nuestra obsesión actual por el aprendizaje automático. Sus muchos protegidos incluyen a Yann LeCun y Yoshua Bengio (ahora ambos pioneros de la IA por derecho propio), así como a Alex Krishevsky (famoso por Alexnet) e Ilya Sutskevar.

Geoffrey Hinton

Genius Makers no es realmente una historia de la IA como tal. La inteligencia artificial se remonta al menos a la década de 1950. Lo clave que logró el campo durante la mayor parte de esos años fue explorar una serie de ideas sin salida que resultaron inútiles o no estaban listas para el horario de máxima audiencia. En otras palabras, la investigación científica básica haciendo lo suyo.

Principales ideas de Genius Makers

  • Las primeras investigaciones sobre inteligencia artificial fueron recibidas con escepticismo.
  • El aprendizaje profundo convirtió a la tecnología de redes neuronales en el nuevo juguete favorito.
  • Las empresas más grandes de Silicon Valley invirtieron dinero en la investigación de IA.
  • Las redes neuronales tienen el potencial de superar a los humanos en muchos campos.
  • Una IA más sofisticada tiene el potencial de distorsionar nuestra visión de la realidad.
  • La IA puede fácilmente ser mal utilizada con fines políticos.
  • Las redes neuronales aún no piensan ni aprenden como los humanos.
  • Los investigadores continúan impulsando la IA más allá de sus límites actuales.Idea clave 1

Las primeras investigaciones sobre inteligencia artificial fueron recibidas con escepticismo.

7 de julio de 1958. Los hombres se apiñan alrededor de una enorme computadora del tamaño de un refrigerador en las profundidades de las oficinas de la Oficina Meteorológica de los Estados Unidos en Washington, DC. Observan atentamente cómo Frank Rosenblatt, un joven profesor de la Universidad de Cornell, le muestra a la computadora una serie de tarjetas.

Cada tarjeta tiene un cuadrado negro impreso en un lado. Se supone que la máquina debe identificar cuáles tienen la marca en el lado izquierdo y cuáles en el derecho. Al principio, no puede notar la diferencia. Pero a medida que Rosenblatt continúa con las tarjetas didácticas, la precisión mejora. Después de 50 intentos, identifica la orientación de las tarjetas casi a la perfección.

Rosenblatt llama a la máquina el Perceptrón. Si bien en estos días parece rudimentario, en realidad es un precursor temprano de lo que ahora llamamos inteligencia artificial o IA. Aunque, en ese momento, se descartó como una novedad.

Hoy, reconocemos el Perceptron de Rosenblatt y su sucesor, el Mark I, como versiones muy tempranas de una red neuronal. Las redes neuronales, computadoras que utilizan un proceso que a veces se denomina aprendizaje automático, son la base de gran parte de lo que actualmente llamamos inteligencia artificial. En el nivel más básico, funcionan analizando cantidades masivas de datos y buscando patrones. A medida que una red identifica más patrones, refina sus algoritmos analíticos para producir información cada vez más precisa.

En 1960, este proceso era lento e implicaba mucho ensayo y error. Para entrenar al Mark I, los científicos alimentaron la computadora con pedazos de papel con una letra, como AB o C , impresa en cada uno. Usando una serie de cálculos, la computadora adivinaría qué letra vio. Luego, un humano marcaría la conjetura como correcta o incorrecta. El Mark I luego actualizaría sus cálculos para que pudiera adivinar con mayor precisión la próxima vez.

Científicos como Rosenblatt compararon este proceso con los del cerebro humano, argumentando que cada cálculo era como una neurona. Al conectar muchos cálculos que se actualizan y adaptan con el tiempo, una computadora podría aprender como lo hacen los humanos. Rosenblatt llamó a esto conexionismo. Sin embargo, hubo detractores, como el científico informático del MIT, Marvin Minsky. En un libro de 1969, Minsky criticó el concepto de conexionismo. Argumentó que el aprendizaje automático nunca podría escalar para resolver problemas más complejos.

El libro de Minsky demostró ser muy influyente. A lo largo de la década de 1970 y principios de la de 1980, disminuyó el interés por investigar las redes neuronales. Durante este «invierno de IA», pocas instituciones financiaron la investigación de redes neuronales y el progreso en el aprendizaje automático se estancó. Pero no se detuvo por completo. 

El aprendizaje profundo convirtió a la tecnología de redes neuronales en el nuevo juguete favorito.

Desde el principio, Geoff Hinton fue algo así como un extraño. A principios de la década de 1970, obtuvo un doctorado de la Universidad de Edimburgo. Este fue el apogeo del invierno de la IA, pero Hinton aún favorecía un enfoque conexionista de la IA. Como era de esperar, luchó por encontrar un trabajo después de graduarse.

Durante la siguiente década, Hinton deambuló por la academia. Aceptó trabajos en la Universidad de California en San Diego, la Universidad Carnegie Mellon y, finalmente, la Universidad de Toronto. Mientras tanto, continuó refinando sus teorías sobre el aprendizaje automático. Creía que agregar capas adicionales de computación, un proceso que llamó «aprendizaje profundo», podría desbloquear el potencial de las redes neuronales.

A lo largo de los años, se ganó a algunos escépticos e hizo algunos progresos, aunque lentamente. Luego, en 2008, conoció al científico informático de Microsoft, Li Deng.

Li Deng y Geoff Hinton hablaron por primera vez en NIPS, una conferencia de IA en Whistler, Columbia Británica. En ese momento, Deng estaba desarrollando un software de reconocimiento de voz para Microsoft. Hinton, al reconocer una oportunidad, sugirió que las redes neuronales de aprendizaje profundo podrían superar cualquier enfoque convencional. Deng se mostró escéptico pero intrigado, y los dos decidieron trabajar juntos.

Deng y Hinton pasaron la mayor parte de 2009 trabajando en el laboratorio de investigación de Microsoft en Redmond, Washington. Juntos, escribieron un programa que usaba modelos de aprendizaje automático para analizar cientos de horas de voz grabada. El programa se ejecutó en chips de procesamiento de GPU especiales que normalmente se usan para juegos de computadora. Después de semanas de procesamiento, los resultados fueron asombrosos. El programa podía analizar archivos de audio y seleccionar palabras individuales con una precisión asombrosa.

Pronto, otras empresas de tecnología experimentaron con programas similares. Navdeep Jaitly, un científico de Google, usó su propia máquina de aprendizaje profundo para lograr resultados aún mejores: su programa tenía una tasa de error de solo el 18 por ciento. Estos primeros éxitos constituyeron un sólido argumento a favor del poder potencial de las redes neuronales. Además, los investigadores se dieron cuenta de que los mismos conceptos básicos se podían aplicar para analizar muchos problemas diferentes, desde la búsqueda de imágenes hasta la navegación de vehículos autónomos.

En unos pocos años, el aprendizaje profundo era la tecnología más popular en Silicon Valley. Google, siempre una empresa ambiciosa, lideró la carga al comprar la firma de investigación DNNresearch de Hinton, así como otras empresas emergentes de IA, como DeepMind, con sede en Londres. Sin embargo, esto fue solo el comienzo. En los próximos años, la competencia solo se volvería más feroz.

Las empresas más grandes de Silicon Valley invirtieron dinero en la investigación de IA.

A principios de la década de 2010, el aprendizaje profundo y las redes neuronales aún eran tecnologías relativamente nuevas. Sin embargo, los emprendedores tecnológicos ambiciosos en lugares como Facebook, Apple y Google estaban convencidos de que la inteligencia artificial era el futuro. Si bien nadie sabía exactamente cómo se usaría la IA para generar ganancias, cada empresa quería ser la primera en averiguarlo. Google tomó ventaja al comprar DeepMind, pero Facebook y Microsoft le siguieron de cerca, cada uno gastando millones en contratar investigadores de inteligencia artificial.

¿Qué vio una empresa de redes sociales como Facebook en la IA? Bueno, una red neuronal de vanguardia podría optimizar el negocio al dar sentido a las enormes cantidades de datos en sus servidores. Podría aprender a identificar rostros, traducir idiomas o anticipar hábitos de compra para publicar anuncios dirigidos. En el futuro, incluso podría operar bots sofisticados que podrían realizar tareas como enviar mensajes a amigos o realizar pedidos. En resumen, podría hacer que el sitio cobrara vida.

Google tenía planes igualmente grandiosos para su investigación. Sus especialistas en inteligencia artificial, personas como Anelia Angelova y Alex Krizhevsky, imaginaron usar los datos de Google Street View para entrenar autos autónomos para navegar ágilmente por la complejidad de las ciudades del mundo real. Otro investigador, Demis Hassabis, estaba diseñando una red neuronal para mejorar la eficiencia energética de los millones de servidores en los que la empresa dependía para operar.

En la prensa, estos proyectos fueron promocionados como innovadores y potencialmente capaces de cambiar el mundo. Pero no todos eran tan optimistas. Nick Bostrom, un filósofo de la Universidad de Oxford, advirtió que los avances en IA podrían salir mal fácilmente. Postuló que las máquinas superinteligentes podrían ser impredecibles y tomar decisiones que pusieran en riesgo a la humanidad. Sin embargo, tales advertencias no frenaron el aumento desenfrenado de la inversión.

Las redes neuronales tienen el potencial de superar a los humanos en muchos campos.

En las décadas posteriores a que Rosenblatt comenzara a experimentar con Perceptron, las capacidades de las redes neuronales crecieron a pasos agigantados. Este increíble repunte fue impulsado por dos tendencias. Uno, los procesadores de computadora se volvieron cada vez más rápidos y baratos: cualquier chip moderno podía realizar muchos más cálculos que los modelos anteriores. Y dos, los datos se habían convertido en un recurso abundante, por lo que las redes podían capacitarse en una gran variedad de información.

Como resultado de estos desarrollos, los investigadores pudieron aplicar de manera creativa los principios del aprendizaje automático a cualquier número de problemas. Tomemos, por ejemplo, el problema de diagnosticar la retinopatía diabética. Esta condición común causa ceguera si no se trata. Sin embargo, detectarlo temprano generalmente requiere que un médico experto examine cuidadosamente el ojo del paciente en busca de pequeñas lesiones, hemorragias y decoloraciones sutiles. En países como India, donde los médicos pueden ser escasos, no siempre hay suficiente personal para examinar a todos.

Entra el ingeniero de Google Varun Gulshan y la médica Lily Peng. Trabajando juntos, estos dos científicos diseñaron un plan para diagnosticar de manera eficiente la retinopatía diabética. Utilizando un conjunto de 130.000 escaneos oculares digitales del Aravind Eye Hospital de la India, la pareja entrenó una red neuronal para detectar las sutiles señales de advertencia de la enfermedad. Después de analizar los datos, su programa podría analizar automáticamente los ojos de cualquier paciente en segundos. Además, fue preciso el 90 por ciento de las veces, casi tan bueno como un médico capacitado.

Proyectos similares podrían revolucionar el futuro de la atención médica. Las redes neuronales podrían entrenarse para analizar rayos X, tomografías computarizadas, resonancias magnéticas y cualquier otro tipo de datos médicos para detectar enfermedades y anomalías de manera eficiente. Con el tiempo, incluso podrían aprender a identificar patrones demasiado sutiles para que los humanos los vean.

Una IA más sofisticada tiene el potencial de distorsionar nuestra visión de la realidad.

A principios de la década de 2010, la investigación del aprendizaje automático se centró en enseñar a las computadoras a detectar patrones en la información. Los programas de IA entrenados en grandes conjuntos de imágenes eran aptos para identificar y clasificar imágenes en función de su contenido. Pero en 2014, Ian Goodfellow, investigador de Google, propuso una idea diferente. ¿Podría la IA aprender a generar imágenes completamente nuevas?

Para hacer esto, Goodfellow diseñó la primera red antagónica generativa , o GAN. Estos funcionan haciendo que dos redes neuronales se entrenen entre sí. La primera red genera imágenes, luego la otra utiliza algoritmos complejos para juzgar su precisión. A medida que las dos redes intercambian información una y otra vez, las nuevas imágenes se vuelven cada vez más reales.

Si bien las imágenes falsas siempre han existido, las GAN hicieron que generar representaciones realistas de cualquier persona o cosa fuera más fácil que nunca. Muy rápidamente, los primeros usuarios utilizaron la tecnología para crear videos convincentes de políticos, estrellas del pop y otras figuras públicas. Si bien algunas de estas «falsificaciones profundas» son divertidas e inofensivas, otras colocan a las personas en imágenes pornográficas, lo que genera señales de alerta obvias.

Las falsificaciones profundas no son el único problema que enfrenta la investigación de IA. Los críticos también han señalado los problemas del campo con prejuicios raciales y de género. En 2018, la científica informática Joy Buolamwini demostró que los programas de reconocimiento facial diseñados por Google y Facebook fallaron al identificar rostros que no eran blancos ni masculinos. Las redes fueron entrenadas en datos que sesgaron hacia los hombres blancos, distorsionando su precisión. Tales hallazgos han hecho que la gente se preocupe con razón por el potencial opresivo de la IA, un tema que exploraremos en el próximo apartado.

La IA puede fácilmente ser mal utilizada con fines políticos.

Las empresas privadas no eran las únicas organizaciones ansiosas por explorar las crecientes capacidades de la IA. Los gobiernos también eran cada vez más conscientes del potencial transformador de las tecnologías de aprendizaje automático. En China, el Consejo de Estado financió un plan ambicioso para convertirse en el líder mundial en IA para 2030. De manera similar, el gobierno de los Estados Unidos estaba invirtiendo cantidades de dinero cada vez mayores en el desarrollo de sistemas de IA, a menudo para el ejército.

En 2017, el Departamento de Defensa y Google iniciaron conversaciones sobre una nueva asociación multimillonaria llamada Project Maven. El acuerdo haría que los equipos de IA de Google desarrollen redes neuronales para optimizar el programa de drones del Pentágono. Como era de esperar, la perspectiva de ayudar a los militares hizo que muchos ingenieros se sintieran incómodos. Más de 3.000 empleados firmaron una petición para rescindir el contrato. Si bien la compañía finalmente cedió, la junta ejecutiva de Google no ha descartado más asociaciones en el futuro.

Mientras tanto, Facebook se vio envuelto en una controversia política propia. Durante el ciclo electoral de 2016, una empresa emergente británica llamada Cambridge Analytica recopiló datos privados de 50 millones de perfiles de Facebook y los utilizó para crear anuncios de campaña engañosos para Donald Trump. El escándalo puso de relieve el problema de moderación de la plataforma. Con tantos usuarios, el sitio se había convertido en un semillero de contenido, incluida la propaganda radical y la información errónea, a menudo denominada «noticias falsas».

En 2019, Zuckerberg testificó ante el Congreso que su empresa usaría IA para limpiar contenido dañino. Sin embargo, la solución no es perfecta. Incluso las redes neuronales más avanzadas luchan por analizar los matices del discurso político. No solo eso, la IA malévola puede producir nueva información errónea tan rápido como se puede moderar. En realidad, cualquier persona que use la IA para el bien siempre estará atrapada en una carrera armamentista con los malos actores.

Las redes neuronales aún no piensan ni aprenden como los humanos.

Es un brillante día de primavera de mayo de 2018 y el anfiteatro Shoreline en Mountain View, California, está repleto. La multitud se está volviendo loca. Pero el hombre en el escenario no es una estrella de rock empuñando una guitarra. No, es el CEO de Google, Sundar Pichai, y sostiene un teléfono.

Esta es I/O, la conferencia anual de la empresa de tecnología. Y Pichai acaba de demostrar la última innovación de Google, el Asistente de Google. Usando una tecnología de red neuronal llamada WaveNet, el asistente puede hacer llamadas telefónicas usando una voz humana que suena realista. En el clip que Pichai acaba de reproducir, el programa de inteligencia artificial hizo con éxito una reserva en un restaurante: la mujer en el café ni siquiera se dio cuenta de que estaba hablando con una computadora.

Cuando el profesor de psicología de la Universidad de Nueva York, Gary Marcus, vio la demostración de Pichai, simplemente puso los ojos en blanco. Al igual que Marvin Minsky antes que él, es pesimista sobre el verdadero potencial del aprendizaje automático. Si bien Google presentó a su asistente de IA con una comprensión del habla y la conversación casi a nivel humano, Marcus pensó que, en realidad, el programa solo parecía impresionante porque estaba realizando una tarea muy específica y predecible.

El argumento de Marcus se basa en una escuela de pensamiento llamada nativismo . Los nativistas creen que una gran parte de la inteligencia humana está integrada en nuestro cerebro por la evolución. Esto hace que el aprendizaje humano sea fundamentalmente diferente del aprendizaje profundo de redes neuronales. Por ejemplo, el cerebro de un bebé es tan ágil que puede aprender a identificar un animal después de mostrarle uno o dos ejemplos. Mientras tanto, para realizar la misma tarea, se debe entrenar una red neuronal con millones de imágenes.

Para los nativos, esta diferencia en la capacidad innata explica por qué la IA de la red neuronal no ha mejorado tan rápido como se esperaba, especialmente cuando se trata de tareas matizadas como la comprensión del lenguaje. Si bien la IA del Asistente de Google puede abrirse camino a través de una conversación de memoria básica, no es exactamente capaz de interactuar con los discursos más complejos que le resultan fáciles a una persona promedio. Una IA podría hacer una reserva, pero no entenderá una broma.

Por supuesto, los investigadores están trabajando para superar este obstáculo. Los equipos de Google y OpenAI están experimentando actualmente con un enfoque llamado modelado de lenguaje universal . Estos sistemas entrenan redes neuronales para comprender el lenguaje de una manera más matizada y específica del contexto y han mostrado cierto progreso. Sin embargo, aún está por verse si serán excelentes compañeros de conversación.

Los investigadores continúan impulsando la IA más allá de sus límites actuales.

Google se encuentra entre las empresas más exitosas del planeta. Esta única organización es responsable de inventar y operar muchos de los servicios que hacen funcionar el mundo moderno. También genera una enorme cantidad de riqueza: decenas de miles de millones de dólares. Así que imagina si hubiera dos Google, tres o 50. ¿Podría la IA hacer esto posible?

Tal vez. Al menos según Ilya Sutskever, científico jefe de OpenAI. Si los científicos pudieran construir una inteligencia artificial tan capaz y creativa como la mente humana, sería revolucionario. Una computadora superinteligente podría construir otra versión mejor, y así sucesivamente. Eventualmente, la IA llevaría a la humanidad más allá de lo que podemos imaginar.

Es un sueño elevado, pero ¿es realista? Incluso las mentes más brillantes de Silicon Valley no están del todo seguras.

Cuando Frank Rosenblatt presentó por primera vez el Perceptron, hubo escépticos. Pero también había optimistas. En todo el mundo, científicos y futuristas hicieron audaces afirmaciones acerca de que las computadoras pronto igualarían o incluso superarían a la humanidad en capacidad técnica y destreza intelectual. Herbert Simon, profesor de Carnegie Mellon, apostó que sucedería en apenas dos décadas. Claramente, tales predicciones no se cumplieron del todo.

Sin embargo, a pesar de la velocidad desigual del progreso, muchos todavía creen que es posible una inteligencia similar a la humana o incluso sobrehumana, a veces llamada inteligencia general artificial o AGI. De hecho, están apostando por ello. En 2018, OpenAI actualizó su estatuto para incluir el desarrollo de AGI como un objetivo explícito de la investigación de la empresa. Y poco después del anuncio, Microsoft acordó invertir más de mil millones de dólares en la ambiciosa meta del equipo de investigación.

Todavía no está claro exactamente cómo se puede lograr el AGI, pero los investigadores están abordando el problema desde varios ángulos. Algunas empresas, como Google, Nvidia e Intel, están trabajando en el desarrollo de nuevos chips de procesamiento diseñados específicamente para redes neuronales. La idea es que este hardware supercargado permitirá que las redes procesen suficientes datos para superar las barreras actuales que enfrentan los programas de aprendizaje automático.

Mientras tanto, Geoff Hinton, uno de los primeros impulsores del aprendizaje automático, está tomando un camino diferente. Su investigación actual se centra en una tecnología llamada redes de cápsulas. Se dice que este modelo experimental refleja más de cerca el cerebro humano en estructura y función. Aun así, pasarán años antes de que algo concreto llegue a buen término. Para entonces, una teoría completamente nueva puede estar en boga. Con la IA, el futuro siempre es incierto.

Conclusión de Genius Makers

Los recientes avances en tecnología artificial han generado mucha expectación, ansiedad y controversia. Gran parte de lo que actualmente llamamos IA se basa en modelos de redes neuronales, un proceso que utiliza cadenas de cálculos para analizar cantidades masivas de datos e identificar patrones. Los gobiernos y las empresas privadas han perfeccionado esta tecnología para hacer de todo, desde optimizar la búsqueda de imágenes y publicar anuncios en Internet hasta diagnosticar enfermedades y pilotar aviones autónomos. No está claro hacia dónde conducirá la investigación de la IA en el futuro, pero algunos apuestan a que seguirá ofreciendo productos revolucionarios.

Imagen de Garik Barseghyan en Pixabay

Post relacionados: