El uso sube. La confianza en adónde lleva todo esto, no.
La consultora Prophet publicó hace unas semanas su informe anual sobre el consumidor y la inteligencia artificial. Los datos merecen atención: el uso de GenAI ha pasado del 45% al 73% en dos años. Gente que sube radiografías para interpretar resultados antes de hablar con su médico, que simula versiones futuras de sí misma para evaluar una compra importante, que deja que un sistema monitorice precios y compre en su nombre cuando se dan las condiciones. El crecimiento es consistente en todos los mercados del estudio.
Y al mismo tiempo, la creencia de que la IA acabará dominando la mayoría de las decisiones cotidianas ha caído un 30% respecto al año anterior. El 61% declara ansiedad ante la posibilidad de perder conexión humana. Se usa más, pero la imagen de hacia dónde conduce genera cada vez menos entusiasmo.
Esta tensión es el punto de partida, no porque sea un dato de mercado llamativo, sino porque dice algo sobre cómo procesamos lo que ocurre: lo adoptamos antes de haberlo entendido, y cuando empezamos a entenderlo, nos inquieta.
Esto ya pasaba con Google. Pero no exactamente.
Hay una objeción razonable que conviene mirar de frente: llevamos dos décadas viviendo bajo sistemas que condicionaban nuestras decisiones. Google moldeaba lo que veías. Los algoritmos de Amazon o Netflix anticipaban necesidades antes de que las articularas. La influencia externa sobre nuestras elecciones no es ninguna novedad.
La diferencia no es de naturaleza, sino de dónde se cierra el bucle. Google te mostraba opciones. Tú clicabas. El proceso pasaba por ti, aunque el punto de partida estuviera mediado. Un agente autónomo actúa en tu nombre: compra, negocia, gestiona. No te consulta porque no necesita consultarte. El momento de decisión desaparece de tu experiencia, no porque alguien te lo haya quitado, sino porque se ha desplazado a un espacio donde tú no estás presente.
A esto se añade algo más difícil de medir: la profundidad del modelo que se construye sobre ti. Google te conocía por lo que buscabas. La IA ambiental que describe el informe de Prophet observa patrones de comportamiento, infiere estados emocionales, anticipa necesidades que todavía no has formulado. Un 66% de los encuestados dice querer una IA que “lea entre líneas”. Lo que se acumula ya no es un historial de clics; es algo más parecido a una teoría funcional de quién eres.
Delegar siempre ha sido parte de decidir
Aquí vale la pena no exagerar. La delegación es estructural en la vida humana. Delegamos al GPS, al gestor fiscal, al algoritmo de reproducción aleatoria. Y nuestras propias decisiones “autónomas” son bastante menos limpias de lo que creemos: los sesgos cognitivos operan antes de que el pensamiento consciente tenga tiempo de intervenir, el contexto lo condiciona casi todo, y la ilusión de control sobre nuestras elecciones es parcialmente eso, una ilusión. La psicología cognitiva lleva décadas documentándolo.
El problema no es la delegación sino su visibilidad. Cuando el GPS te redirige, lo ves. Puedes ignorarlo, discutir con él, tomarte la salida equivocada porque te apetece. Cuando un agente actúa en tu nombre antes de que hayas pensado conscientemente en actuar, ese momento de fricción —y de posible corrección— no existe. La decisión ya ocurrió. Tú llegas después.
Ser agente, en el sentido de sentirte quien elige, no requiere solo que el resultado sea el que habrías querido. Requiere el proceso: la deliberación, la duda, a veces el error. Cuando eso desaparece por completo, algo cambia en la relación entre una persona y sus propias elecciones, aunque el resultado sea objetivamente mejor.
Lo que la ansiedad señala con más precisión de lo que parece
El informe interpreta la caída del entusiasmo como el “trough of disillusionment” de Gartner, el valle que sigue a cualquier pico de expectativas tecnológicas. Es una lectura razonable, pero creo que se queda corta.
El 63% que teme perder habilidades por dependencia excesiva y el 61% que siente ansiedad por la pérdida de conexión humana no están expresando una queja de usuario. Están señalando que la utilidad no basta. Que una experiencia puede ser funcionalmente óptima y existencialmente empobrecedora al mismo tiempo. Hay algo en deliberar, equivocarse y rectificar que no es un coste a eliminar de la vida —es una parte de lo que significa actuar con criterio propio.
No es nostalgia por la ineficiencia. Es la pregunta, bastante razonable, de qué queda del sujeto que elige cuando suficientes dominios de su vida están optimizados por sistemas que lo conocen mejor de lo que él mismo se conoce.
El diseño es la respuesta, aunque no sea la única
Los casos que el informe destaca como ejemplos de buena práctica tienen algo en común que no es accidental. El asistente financiero de Bank of America detecta señales de frustración y escala a una persona humana. El sistema de soporte de Starbucks libera al barista de la gestión operativa para que pueda concentrarse en el cliente. La prueba virtual de ASOS reduce la ansiedad de compra sin reemplazar la elección. En los tres casos, la tecnología trabaja para que el momento humano sea más denso, no para que desaparezca.
Cabe preguntarse si esto es solo la fase inicial —la IA todavía justificándose ante la sensibilidad humana— o si apunta a algo más duradero sobre qué modelos son sostenibles. La distinción entre un sistema que amplía tu capacidad de decidir y uno que decide en tu lugar parece pequeña desde fuera. Desde dentro, cambia la experiencia por completo.
La pregunta que el informe deja abierta
Si los agentes autónomos acaban tomando decisiones en nombre del consumidor, queda una pregunta que el informe roza pero no formula: ¿con qué intereses están alineados? El agente que compra en tu nombre tiene un cliente directo que no eres tú. Son las marcas que quieren que compres. La optimización puede ser hacia tus preferencias históricas, pero también puede ser hacia márgenes, inventarios y campañas. Normalmente, hacia las tres cosas a la vez.
Esto no responde a la pregunta de quién decide cuando la máquina te conoce mejor que tú. Pero sí complica la respuesta. Porque si el sistema que actúa en tu nombre está diseñado con incentivos que no coinciden con los tuyos, la pregunta sobre la agencia se vuelve también una pregunta sobre el poder. Y esa, al menos, tiene historia suficiente como para saber que no se resuelve sola.
