En 2018, el hashtag #ThankGodIGraduated comenzó a ser tendencia en la plataforma de redes sociales Weibo de China. La etiqueta reflejaba la preocupación entre los estudiantes chinos de que las escuelas habían comenzado a instalar el Class Care System, desarrollado por la empresa de tecnología china Hanwang. Las cámaras monitorean las expresiones faciales de los alumnos con algoritmos de aprendizaje profundo que identifican a cada estudiante y luego clasifican su comportamiento en varias categorías: «concentrado», «escuchando», «escribiendo», «respondiendo preguntas», «distraído» o «dormido». Incluso en un país donde la vigilancia masiva es común, los estudiantes reaccionaron con indignación.

Hay muchas barreras tecnológicas, legales y éticas que superar antes de que el aprendizaje automático pueda implementarse ampliamente de esa manera, pero China, en su intento de superar a los EE. UU. como líder mundial en inteligencia artificial (IA), se apresura a introducir dicha tecnología antes abordar estas preocupaciones. Y China no es el único culpable.

El libro de Frank Pasquale The New Laws of Robotics: Defending Human Expertise in the Age of AI investiga el rápido avance del uso de la IA y las máquinas inteligentes en una era de automatización, y utiliza una amplia gama de ejemplos, entre los que se encuentra el Class Care System está lejos de ser el más siniestro, para resaltar las amenazas que la carrera hacia la robótica plantea para las sociedades humanas. 

En un mundo dominado por corporaciones y gobiernos con disposición a centralizar el control, la adopción de la IA está siendo impulsada por los dictados del capitalismo neoliberal, con el doble objetivo de aumentar las ganancias del sector privado y reducir los costos del sector público. 

El libro de Pasquale demuestra vívidamente cómo el uso de tecnología inmadura y algoritmos toscos para estos fines está destruyendo los derechos de privacidad, socavando las protecciones en el lugar de trabajo, ignorando la diversidad y reforzando la discriminación, los desequilibrios de poder y las diferencias de riqueza.

El título The New Laws of Robotics provoca que los fanáticos de la ciencia ficción de cierta época, regresemos inmediatamente a los escritos de Isaac Asimov y sus célebres tres leyes de la robótica: 

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.

¿En qué se equivocó Asimov?

Asimov creó sus leyes en 1942, cuando él y sus compañeros escritores imaginaron que se aplicarían a servidores robot estereotípicos que poblaban las visiones futuras de la época. El profesor Pasquale dice que, si bien las ideas de Asimov estaban bien fundadas, asumieron una cierta trayectoria tecnológica que ya no se mantiene: las innovaciones no siempre son para el bien de la humanidad.

Mientras que Asimov está hablando de cómo tenemos robots que ayudan a las personas y no las dañan, estoy hablando de cómo democratizamos la dirección de la tecnología”, dice.

Y hace una distinción importante entre la IA y lo que él llama IA: aumento de la inteligencia.

«El objetivo de la inteligencia artificial es a menudo reemplazar a los seres humanos, para crear, por ejemplo, un robot médico o un robot maestro. El objetivo del aumento de la inteligencia es ayudar a los seres humanos«.

Entonces, ¿cuáles son las nuevas leyes y por qué son necesarias?

El profesor Pasquale dice que hay mucho en juego.

La combinación óptima de interacción robótica y humana es demasiado importante para que solo las corporaciones y los ingenieros la determinen, argumenta.

«Si optamos por una visión de reemplazo de inteligencia artificial, eso creará un futuro sin empleo en muchas áreas», dice.

«Mientras que si enfatizamos el aumento de la inteligencia, eso en realidad debería aumentar tanto la productividad como el valor del trabajo».

Nueva ley 1: la IA debe complementar a los profesionales, no sustituirlos

El profesor Pasquale argumenta que algunas áreas de la economía, particularmente en la fabricación, seguirán experimentando una rápida automatización, pero los trabajos que implican juicio y deliberación sobre las opciones deben reservarse para los humanos.

«En áreas como la enseñanza, la medicina, muchos campos profesionales, desea tener personas capaces de explicar las opciones a sus clientes, pacientes y estudiantes, en lugar de que una gran empresa de tecnología simplemente asuma lo que es mejor y automatice el resultado».

Pero enfatiza la necesidad de reconocer y ayudar a los despedidos por la tecnología.

«Parte de hacerlo más fácil es invertir en las personas y enfatizar que todos pueden tener algún papel en la sociedad que implique trabajar con juicio, y que su experiencia sea valiosa para ese trabajo».

Nueva ley 2: Los sistemas robóticos y la IA no deben falsificar a la humanidad

Los dispositivos no deben desarrollarse para imitar las emociones humanas.

El profesor Pasquale dice que si bien los asistentes personales como Siri pueden parecer benignos, corren el riesgo de engañar a las personas y manipular nuestros sentimientos.

El futuro de la interacción humano-computadora implicará decisiones duras sobre cómo deberían ser las interacciones personales con los robots y si debería haber alguna fricción para crear un nivel de distancia.

El profesor Pasquale también argumenta que debemos ser más disciplinados en el lenguaje que usamos en torno a la robótica.

«Me resisto incluso a los novelistas o escritores de ficción a llamar al robot ‘él’ o ‘ella’ como una persona. Creo que ‘eso’ debería ser siempre el pronombre porque creo que ‘eso’ denota el hecho de que se trata de una máquina y no es una persona».

No tiene miedo de llamar a los gigantes tecnológicos como delincuentes en serie a este respecto: Facebook (Meta) por vender noticias falsas y teorías de conspiración y no regular el contenido del usuario para proteger a sus usuarios, contenido racista y antisemita y marcó inquietantes videos de parodia de personajes de dibujos animados que abusan entre sí como «apropiados para niños».

Nueva ley 3: Los sistemas robóticos y la IA no deberían intensificar las carreras armamentistas de suma cero

El desarrollo desenfrenado de sistemas de armas robóticas inteligentes corre el riesgo de salirse de control, advierte el profesor Pasquale.

Y dado nuestro historial con otros gastos militares, hay muchas razones para sugerir que se desarrollará una carrera armamentista sobre el desarrollo y despliegue de armamento de IA.

«Desde el principio, creo que tenemos que decir cómo hacemos que las sociedades reconozcan que esto es destructivo, que no proporciona servicios humanos reales, solo está invirtiendo en la historia de la destrucción», dice el profesor Pasquale.

Al mismo tiempo, altos mandos militares se apresuran a abrazar la perspectiva de ‘soldados robot’ antes de que el Reino Unido haya considerado completamente las implicaciones éticas y prácticas de esto, a diferencia del Departamento de Defensa de los EE. UU., que ha publicado un conjunto de principios éticos para guiar su uso de la IA militar. Muchos argumentarían que en países menos liberales como Rusia y China, la probabilidad de un enfoque ético para la adopción de la IA es incluso menor que en el Reino Unido.

También advierte contra las empresas de tecnología como Google y Facebook que se involucran en una «carrera armamentista por la atención» tanto entre los anunciantes como entre los usuarios de la plataforma.

La hipercompetitividad, advierte, es el camino hacia el «dominio tecnológico y la monopolización«.

Nueva ley 4: Los sistemas robóticos y la IA siempre deben indicar la identidad de su(s) creador(es), controlador(es) y dueño(s)

Se necesitan mayores niveles de transparencia para aumentar la rendición de cuentas y disuadir actividades inapropiadas e ilegales tanto por parte de los propietarios como de los desarrolladores de tecnología.

Así como los automóviles tienen matrículas, los robots también deberían tenerlas, dice el profesor Pasquale.

Él cree que ningún sistema robótico debería volverse completamente autónomo. Los riesgos, dice, son demasiado altos.

«Es importante porque sabemos cómo castigar a las personas, no sabemos cómo castigar a los robots o la IA, y eso es realmente importante para el futuro de la aplicación de la ley».

Pero, ¿no pondrá eso un freno a la innovación?

La respuesta corta es sí. El profesor Pasquale reconoce que la aplicación generalizada de sus nuevas leyes detendría el desarrollo de ciertas tecnologías, pero eso, dice, sería por el bien público.

«Hemos visto tantos campos en los que los avances tecnológicos han tenido consecuencias muy preocupantes y dañinas como el calentamiento global. Tenemos que adelantarnos a estas cosas», dice.

«No podemos simplemente mirar algo como el calentamiento global y decir, bueno, simplemente obtendremos una solución tecnológica».

“Tenemos que pensar muy profundamente sobre cómo dirigir la innovación, y la innovación en sí misma no puede ser solo una consigna para detener la regulación”.

Qué medidas sugiere Pasquale

Entre las medidas que sugiere Pasquale para mantener los algoritmos bajo control está poner fin a la toma de decisiones sobre la adopción de IA y robótica por parte de tecnólogos y gerentes, «evangelistas tecnológicos«, como los describe Pasquale, y en su lugar democratizar las decisiones en este campo. Él da una serie de sugerencias sobre cómo aumentar la participación pública para hacer esto. También proclama la necesidad de un cambio radical en lo que él llama «la economía política de la automatización«, un alejamiento de la mentalidad de que la automatización debe perseguirse como un fin en sí mismo y, en cambio, aboga por un enfoque que apunte a una «mejor IA». ‘ en lugar de ‘más IA’.

Una llamada de atención contra la acumulación de poder

El manifiesto de Pasquale debería ser una llamada de atención más fuerte para aquellos que aún no han apreciado los cambios y riesgos que enfrenta la sociedad como resultado de los avances en IA y robótica. La sociedad civil, la prensa y los activistas tienen el deber de ayudar a educar al público a este respecto. Esto podría empoderarnos para brindar los controles tan necesarios sobre las tecnologías del futuro que Pasquale ha articulado con elegancia.

En un mundo dominado por corporaciones y gobiernos con disposición a centralizar el control, la adopción de la IA está siendo impulsada por los dictados del capitalismo neoliberal, con el doble objetivo de aumentar las ganancias del sector privado y reducir los costos del sector público. 

Image by Gerd Altmann from Pixabay

Post relacionados: