En 2026, el alumno no “descubre” la IA: entra en clase con ella puesta. Como quien llega con portátil, móvil y auriculares. No es un extra, es el contexto. Y cuando el contexto cambia, la evaluación que funcionaba por inercia empieza a fallar por diseño.
Lo digo desde un lugar incómodo, pero útil: llevo más de dos décadas enseñando y co-dirigiendo un máster (el MMDD) en UPF Barcelona School of Management (UPF-BSM), y a la vez me toca vivir desde Foxize cómo las empresas normalizan el “copiloto” en procesos muy reales… y también cómo aparecen sus efectos secundarios. Fuera del campus, la discusión no suele ser “¿se permite o no se permite?”. La discusión es otra: ¿esto es fiable?, ¿quién asume responsabilidad?, ¿se sostiene la decisión?, ¿podemos explicar el porqué sin ponernos nerviosos?
Ese, para mí, es el cambio: la universidad no puede seguir evaluando como si el texto final fuese una prueba de aprendizaje. Porque ya no lo es.
La falsa discusión: permitir o prohibir la IA en la universidad
La conversación “permitir o prohibir” se está quedando vieja a una velocidad casi violenta. No porque la integridad importe menos —importa más— sino porque la pregunta nace de un marco mental infantil: como si el problema fuese un objeto externo (una herramienta) que se puede expulsar del aula cerrando la puerta.
Y el aula ya no es una habitación cerrada.

La segunda edición de Teaching with AI pone el dedo en la llaga: la IA cambia cómo se escribe, cómo se programa, cómo se sintetiza, cómo se prepara una presentación… y también cómo se evita aprender. Eso obliga a dejar de improvisar y pasar al rediseño.
El giro que desbloquea todo, en mi opinión, es este: el debate no va de alumnos “buenos” versus alumnos “tramposos”. Va de evaluación ingenua versus evaluación alineada con el mundo real.
Porque cuando evaluas mal, no estás castigando a un alumno: estás premiando un espejismo.
Integridad académica sin comisaría: por qué el “modo vigilancia” no funciona
Es comprensible que muchas instituciones reaccionen con vigilancia. Cuando pierdes control, buscas instrumentos que prometen certezas: detectores, amenazas, tolerancia cero. Hay algo casi automático ahí: “si no puedo distinguir lo auténtico, necesito una máquina que lo haga por mí”.
El problema es que esa certeza no existe. Y además tiene un efecto secundario serio: convierte la relación docente-alumno en una relación de sospecha permanente. En ese clima, la gente trabaja peor. No por sensibilidad; por simple psicología humana.
Incluso Turnitin (por poner un nombre conocido) reconoce límites y riesgos. Pero, más allá del detalle técnico, hay una pregunta que los detectores no responden: ¿entiende el estudiante?.
Y esa es la única pregunta que justifica la evaluación.
Si de verdad quieres integridad sin comisaría, necesitas otra palanca: diseño. Diseñar evaluaciones donde lo importante no sea “entregar algo que suene bien”, sino demostrar comprensión, criterio y proceso.
El copiloto ya está en el trabajo: la universidad no puede enseñar un mundo ficticio
Aquí entra el puente con empresa, que a menudo se ignora en los claustros: en muchísimos trabajos el copiloto ya es infraestructura. Y no solo en “tech”. En marketing, en operaciones, en legal, en recursos humanos, en consultoría, en educación corporativa. Se usa para acelerar borradores, explorar variantes, preparar reuniones, ordenar ideas, traducir, comparar enfoques, generar prototipos.
La pregunta en empresa no es “¿puedes usarlo?”. La pregunta es:
- ¿qué parte has delegado?,
- qué parte has validado,
- qué parte has corregido,
- y si puedes sostener lo que estás firmando.
Cuando la universidad finge que esto no existe, hace algo peor que ser conservadora: enseña un mundo ficticio. Y el estudiante lo percibe. No hace falta que sea un genio: lo ve porque vive en ese mundo, porque lo usará, porque lo está usando.
Esto tiene una consecuencia práctica que conviene asumir sin drama: la integridad académica ya no puede depender de “prohibir la herramienta”. Tiene que depender de cómo diseñamos la evidencia.
Evaluación auténtica con IA: del producto final al aprendizaje demostrable
El corazón del cambio está aquí: si una tarea se evalúa solo por el producto final (un ensayo “correcto”, un informe “bien escrito”, un código “que funciona”), el copiloto gana por KO. No porque el alumno sea peor, sino porque el criterio de evaluación era, en el fondo, una aproximación: “si escribe esto así, es que ha trabajado y entiende”.
Esa equivalencia se ha roto.
El rediseño empieza cuando aceptas que el producto final, por sí solo, ya no es prueba. Y, a partir de ahí, construyes evaluación por triangulación: no una evidencia, sino varias evidencias que, juntas, hacen difícil fingir aprendizaje sin tenerlo.
En la práctica, ese patrón se parece a esto:
- Entregable final (sí, sigue existiendo).
- Proceso visible (borradores, decisiones, descartes, fuentes, cambios).
- Defensa breve (oral o dialogada, con preguntas que obliguen a conectar).
No suena heroico. Es oficio. Y funciona porque desplaza el foco desde “parecer bueno” hacia “saber sostenerlo”.
Defensa oral y conversación: la prueba de que hay alguien al volante
La defensa oral tiene mala prensa porque muchos la recuerdan como un examen intimidante. Pero bien planteada no es eso. Es una conversación corta y precisa para comprobar tres cosas:
- si el alumno entiende lo que ha entregado,
- si puede explicar decisiones,
- y si reconoce límites sin desmoronarse.
En el fondo, es una habilidad profesional: sostener tu trabajo frente a preguntas reales. Y aquí hay una ventaja enorme: la defensa oral permite evaluar algo que el texto rara vez muestra con claridad: la estructura mental del estudiante.
Un ejemplo muy simple: si un alumno presenta una estrategia y tú le preguntas “¿qué escenario has descartado y por qué?”, no estás cazando trampas. Estás midiendo criterio. Si la respuesta es consistente, hay aprendizaje. Si se deshace, hay humo.
La defensa corta (5–8 minutos) cambia la dinámica. Reduce el incentivo de “fabricar algo bonito” y aumenta el incentivo de “entender de verdad”.
Rúbricas para evaluar criterio (y no solo “prosa bonita”) en tiempos de IA
Las rúbricas son el elefante en la sala. Se usan mucho, pero muchas miden lo que era fácil medir: estructura, estilo, citas, “calidad de redacción”. Con copiloto, eso se vuelve barato.
Una rúbrica que sobreviva a 2026 tiene que evaluar lo que cuesta:
- Dominio: conceptos, límites, fundamentos.
- Criterio aplicado: decisiones razonables con información imperfecta.
- Trazabilidad: qué se hizo, por qué se hizo así, cómo se corrigió.
- Calidad de contraste: verificación, fuentes, coherencia, riesgos.
- Comunicación: claridad, síntesis, capacidad de defender.
Fíjate en el cambio: ya no premias “texto bonito”. Premias pensamiento estructurado.
Y aquí hay un detalle práctico que ahorra muchos conflictos: si la rúbrica explicita qué se evalúa, el alumno deja de jugar al “acertar el estilo del profesor” y empieza a trabajar sobre criterios observables. Con IA, eso es oro.
Portafolios y tareas situadas: evaluación que se parece al trabajo real
Una universidad que quiera ser realista tiene un aliado: el propio trabajo profesional. No me refiero a “hacer prácticas”, sino a diseñar tareas con textura de realidad.
En el mundo real:
- los datos vienen incompletos,
- hay restricciones (tiempo, presupuesto, normativa, reputación),
- las decisiones tienen trade-offs,
- y casi todo se mejora en iteraciones.
Cuando conviertes la evaluación en iteración, el copiloto deja de ser un atajo y se vuelve un instrumento que hay que gobernar. Y eso es exactamente lo que se aprende en un entorno profesional serio: no se “entrega” una cosa perfecta; se mejora, se ajusta, se justifica.
El portafolio, además, cambia la unidad de medida. Ya no evalúas una pieza aislada; evalúas un recorrido. Y cuesta muchísimo más fingir un recorrido coherente que fabricar un documento brillante.
Para mí, ese es el punto clave: el portafolio no es una moda pedagógica. Es una forma de recuperar señal en un mundo donde el output final ha perdido valor como evidencia.
Política de uso de IA en clase: simple, aplicable y justa
Una política decente de IA no necesita diez páginas. Necesita tres reglas que se puedan aplicar sin drama y sin arbitrariedad:
- Declaración de uso: qué herramienta, para qué, en qué parte.
- Contraste de lo importante: si afirmas algo relevante, muéstrame cómo lo has verificado.
- Responsabilidad final: lo que entregas lo sostienes tú, no tu copiloto.
Este marco es, además, una preparación directa para el mundo laboral. Porque fuera nadie acepta “lo dijo el modelo” como excusa. La responsabilidad no se delega. Y me gusta que UNESCO haya empujado el debate hacia gobernanza y capacidades, no solo hacia prohibiciones tácticas.
La política, además, reduce el juego sucio. Porque cuando el uso está declarado, desaparece parte de la clandestinidad. Y cuando desaparece clandestinidad, sube integridad real.
Equidad: prohibir IA empuja a la clandestinidad (y premia al que mejor miente)
La prohibición no elimina el uso; lo desplaza. Y suele desplazarlo hacia:
- quien tiene más recursos,
- quien tiene más confianza tecnológica,
- o quien tiene menos miedo a saltarse normas.
Eso no solo es un problema de integridad: es un problema de equidad. Castigas al que intenta cumplir y premias al que opera mejor en el “mercado negro” de la tarea.
En 2026, sostener una norma que todo el mundo sabe que se incumple no fortalece la integridad: la erosiona. Porque convierte la institución en un teatro.
La alternativa adulta es explícita: sabemos que existe, definimos cómo se usa, y diseñamos evaluación donde el uso no sustituye el aprendizaje.
Cómo rediseñar una asignatura sin reventarla: un plan de transición en 6 pasos
Aquí es donde mucha gente se bloquea: “todo esto suena bien, pero yo tengo 60 alumnos y un semestre”. Vale. Bajemos a tierra.
- Reduce peso del entregable final
No lo elimines. Solo evita que sea la única evidencia. - Exige proceso mínimo
Dos borradores con comentarios, un registro de decisiones, un “qué cambié y por qué”. - Introduce una defensa corta y escalable
No hace falta que sea individual siempre. Puede ser en parejas o tríos, con preguntas rotatorias. - Rediseña la rúbrica hacia criterio
Menos estilo, más decisiones, más contraste, más coherencia. - Define una política de IA que se pueda cumplir
Reglas simples. Aplicación consistente. Cero ambigüedad. - Usa feedback como parte de la evaluación
La iteración no es un extra. Es la evaluación.
Si haces esto, cambia la conversación: el alumno deja de preguntar “¿puedo usar IA?” y empieza a preguntar “¿cómo demuestro que entiendo?”. Ese cambio, por sí solo, ya vale el rediseño.
Dos ejemplos concretos (para que no quede en teoría)
1) Asignatura de estrategia / marketing
Antes: “haz un plan estratégico de X” (entregable final, nota).
Después:
- Entregable final (plan).
- Bitácora de decisiones (3 elecciones clave + alternativas descartadas).
- Evidencias (fuentes, datos, entrevistas o supuestos explícitos).
- Defensa corta: “¿qué cambiaría si el presupuesto cae un 30%?” / “¿qué variable haría fracasar la estrategia?”
La IA puede ayudarte a generar opciones. Perfecto. Pero el criterio —y la responsabilidad— siguen siendo tuyos.
2) Asignatura técnica (datos / programación)
Antes: “entrega el código que funciona”.
Después:
- Código + tests.
- Explicación de diseño (por qué esta arquitectura, no otra).
- Registro de depuración (dos errores relevantes y cómo los resolviste).
- Mini code review oral (5 minutos): “enséñame este módulo y dime dónde están los riesgos”.
Aquí el copiloto puede acelerar, sí. Pero no te sustituye si tienes que explicar, justificar y probar.
Cierre: la integridad no se defiende con nostalgia
En 2026, intentar recuperar integridad prohibiendo IA es un poco como intentar recuperar la lectura prohibiendo Wikipedia. La herramienta no desaparece. Lo que desaparece es la señal.
La integridad se sostiene cuando el sistema evalúa aprendizaje real: criterio, proceso, defensa, trazabilidad, responsabilidad. Y, de paso, cuando la universidad acepta algo que la empresa ya ha aceptado: el copiloto existe. La cuestión es si hay alguien al volante.
Si seguimos evaluando como en 2016, no estaremos defendiendo la integridad. Estaremos defendiendo una ficción.
Y lo peor no es que la ficción sea antigua. Lo peor es que el alumno ya vive fuera de ella.
