top of page
Buscar

Enseñanza y aprendizaje en la era de la inteligencia artificial: lo que los líderes universitarios deben resolver ahora*

  • German Ramirez
  • hace 7 horas
  • 11 Min. de lectura

El debate sobre si las universidades deberían "permitir" el uso de la inteligencia artificial ha concluido, no porque las instituciones lo hayan resuelto, sino porque los estudiantes avanzaron sin esperarlas.

Según la Encuesta sobre IA Generativa entre Estudiantes de HEPI (2025), la proporción de estudiantes universitarios en el Reino Unido que utilizan IA para sus evaluaciones pasó del 53% al 88% en solo un año, mientras que la adopción general de herramientas de IA pasó del 66% al 92%. En Estados Unidos, una encuesta representativa de RAND del mismo año encontró que el 54% de los estudiantes utiliza IA para sus actividades académicas (un incremento de más del 15% en apenas dos años), mientras que más del 80% señaló que sus docentes nunca les habían enseñado explícitamente cómo utilizarla.

Los estudiantes no están esperando que llegue la política institucional. Usan IA ahora mismo, sin orientación ni formación, y frecuentemente sin una comprensión clara de cuáles son los límites que su institución establece.

Eso no es un problema tecnológico sino un fracaso en la gobernanza. La pregunta operativa para vicerrectores académicos, decanos y responsables de docencia en 2026 ya no es si, sino cómo: ¿cómo rediseñamos la enseñanza, el aprendizaje y la evaluación para que la IA mejore la calidad formativa y la integridad académica, en lugar de erosionar ambas silenciosamente?

Esta entrega examina cuatro palancas fundamentales: los copilotos docentes basados en IA, los flujos de trabajo en diseño instruccional, la modernización de la integridad académica, y el rediseño de las evaluaciones.


I. Copilotos de curso: la diferencia entre una capa de práctica y una máquina de respuestas

Qué hace realmente un copiloto bien diseñado

Un copiloto de curso no es un chatbot genérico insertado en una plataforma de gestión del aprendizaje. Una implementación seria es pedagógicamente intencionada y está acotada al contenido del curso. Su función es facilitar el aprendizaje a través de la tutoría socrática, guiando al estudiante hacia el siguiente paso de razonamiento en lugar de entregar la respuesta directamente; práctica dirigida alineada a los resultados de aprendizaje específicos del curso; retroalimentación basada en rúbricas y ejemplares; planificación del estudio mediante recuperación espaciada; y apoyo diferenciado para estudiantes con necesidades de accesibilidad o que aprenden en una segunda lengua.

La justificación pedagógica de este diseño ya cuenta con respaldo empírico sólido. Un ensayo controlado aleatorizado realizado en Harvard en 2025 y publicado en Scientific Reports encontró que los estudiantes que utilizaban un tutor de IA de diseño específico aprendieron significativamente más en menos tiempo que sus pares en aulas de aprendizaje activo convencional, y reportaron mayor compromiso y motivación. El estudio involucró a 194 estudiantes universitarios de física en un diseño cruzado en el que cada participante experimentó ambas condiciones, garantizando equivalencia; el grupo de control era en sí mismo un entorno de mejores prácticas pedagógicas, no una clase magistral pasiva.

Es un resultado notable que exige una interpretación cuidadosa. El tutor de IA del estudio fue diseñado expresamente badado en principios instruccionales establecido; es decir, no era un chatbot de propósito general. La lección no es "reemplazar a los docentes con IA"; es que un entorno de práctica con IA bien diseñado, anclado en teoría instruccional sólida, puede incrementar sustancialmente el tiempo de dedicación efectiva y la profundidad del aprendizaje de maneras que la adopción casual de herramientas no puede replicar.

La evidencia contraria merece igual atención. Una revisión sistemática publicada en 2025 encontró que la dependencia excesiva de sistemas de tutoría con IA estaba asociada, en algunos estudios, con descarga cognitiva: los estudiantes aceptaban pasivamente los resultados de la IA en lugar de procesar el material activamente, lo que se correlacionaba con reducciones en el pensamiento crítico, la retención de información y la capacidad de análisis independiente. La variable crítica es el diseño. La IA que orienta el pensamiento produce resultados distintos a la IA que lo sustituye.

El modelo de "copiloto como capa de práctica"

El patrón más confiable que está emergiendo en la práctica es conceptualmente sencillo:

La instrucción central permanece en manos humanas. Las clases magistrales, los seminarios, el trabajo de laboratorio, la crítica en taller y la supervisión clínica siguen siendo responsabilidad docente. Son los entornos donde se desarrolla el pensamiento disciplinar, la modelación profesional y el vínculo pedagógico.

El copiloto añade una capa de práctica. La recuperación de contenidos, el acompañamiento en la resolución de problemas, la retroalimentación iterativa sobre borradores y la preparación para evaluaciones ocurren entre sesiones, mediados por una IA restringida al contenido del curso y orientada hacia el razonamiento guiado.

Este diseño logra dos cosas simultáneamente: incrementa el tiempo de aprendizaje sin multiplicar la carga de trabajo docente y encauza el uso estudiantil de la IA hacia conductas formativas (práctica, reflexión y revisión) en lugar de conductas de presentación: externalizar el trabajo terminado.

Límites que no son negociables

Para que los copilotos funcionen como herramientas de aprendizaje en lugar de dispensarios de respuestas, son indispensables tres valores institucionales predeterminados:

Primero, el copiloto debe basarse en los materiales del curso y citarlos, en lugar de ofrecer respuestas desvinculadas del contexto académico. Segundo, debe presentar los pasos de razonamiento como orientación formativa; el objetivo es siempre el siguiente paso que el estudiante debe dar y no la respuesta que está buscando. Tercero, los patrones de uso agregados deben registrarse con fines de mejora curricular, protegiendo la privacidad individual. La pregunta sobre los datos (e.g., qué información se recopila, con qué propósito y quién tiene acceso) requiere gobernanza explícita antes de cualquier implementación y no después.


II. Diseño instruccional: elevar la calidad, no solo la velocidad

La mayoría de las universidades no invierte suficientemente en capacidad de diseño instruccional. La IA puede ayudar a cerrar esa brecha, pero sólo cuando se utiliza para mejorar el rigor del diseño y no para acelerar la producción de contenidos con apariencia sólida y sustancia pedagógica débil.

Dónde aporta la IA valor real a diseñadores y docentes

Las aplicaciones más productivas se agrupan en cuatro áreas.

Claridad de los resultados de aprendizaje. La IA puede redactar resultados de aprendizaje usando verbos alineados a la taxonomía de Bloom, verificar la coherencia entre resultados, actividades y evaluaciones, y detectar brechas en el currículo implícito—competencias que se dan por supuestas pero nunca se enseñan explícitamente.

Arquitectura de contenidos. Transformar un programa de estudios en una ruta de aprendizaje clara, construir mapas conceptuales y cadenas de prerrequisitos, generar candidatos a microlecciones y listas de conceptos erróneos frecuentes para revisión docente. Estas son tareas laboriosas en las que la IA puede producir borradores sólidos que el cuerpo académico valida y refina.

Aprendizaje activo a escala. Generar preguntas de discusión en múltiples niveles cognitivos, redactar escenarios y preguntas de cierre reflexivo, producir cuestionarios formativos con justificación de respuestas, son todas tareas intensivas en tiempo que la IA puede acelerar considerablemente cuando los resultados de aprendizaje están bien definidos.

Rúbricas y ejemplares. Redactar rúbricas analíticas alineadas a los resultados declarados, generar pares de trabajos ejemplares y "casi ejemplares" que enseñen a los estudiantes cómo se ve la calidad antes de que intenten una tarea. En tal sentido, la IA puede producir primeros borradores funcionales que ahorran tiempo significativo y mejoran la consistencia.

El principio de diseño que debe regir

Si se va a estandarizar algo a nivel institucional, esta puede ser la secuencia: la IA produce opciones en borrador; los docentes y el equipo de diseño instruccional validan la alineación, la equidad, la accesibilidad y el realismo de la carga de trabajo; los estudiantes interactúan con la IA únicamente donde la pedagogía lo justifica explícitamente. Todo lo demás se deriva de este planteamiento.

Omitir el paso de validación es el mecanismo por el cual surgen los "cursos diseñados por IA": estructuralmente coherentes, pedagógicamente vacíos.


III. Integridad académica: dejar de delegar la gobernanza en detectores

La trampa de la detección

El impulso de resolver el uso estudiantil de IA con herramientas de detección de IA es comprensible, pero resulta claramente insostenible.

La investigación ha demostrado que, si bien los detectores de IA identificaban texto generado artificialmente con una precisión del 74% en condiciones controladas, esa precisión cayó al 42% cuando los estudiantes realizaron modificaciones menores al contenido generado. Las tasas de precisión que publicitan los proveedores—habitualmente del 98% al 99%—reflejan condiciones de laboratorio óptimas; el rendimiento en entornos reales es sustancialmente inferior y muy variable. Las herramientas de detección producen falsos positivos en altas proporciones y muestran sesgos particulares contra hablantes multilingües y no nativos en inglés, lo cual plantea serias preocupaciones de equidad y justicia procesal.

El propio Turnitin reporta una tasa de falsos positivos de aproximadamente el 4% a nivel de oración—lo que significa que un ensayo de 500 palabras podría tener una o más oraciones incorrectamente marcadas como generadas por IA. A escala, con miles de estudiantes, esa tasa produce un número sustancial de acusaciones infundadas con consecuencias disciplinarias reales.

Durante el año académico 2023–24, el 63% de los docentes reportó a estudiantes por uso de IA en trabajos académicos—frente al 48% del año anterior—mientras que el profesorado reporta dedicar más tiempo a investigar alertas de detección que a enseñar. El Grupo de Trabajo Conjunto MLA-CCCC sobre Escritura e IA ha advertido explícitamente contra las herramientas de detección, señalando que las acusaciones falsas pueden afectar de manera desproporcionada a estudiantes de grupos marginalizados. Varias instituciones de primer nivel, entre ellas UCLA y UC San Diego, desactivaron sus herramientas de detección de IA en 2024–25 precisamente debido a las tasas de falsos positivos y los costos operativos crecientes.

La detección no es un sistema de gobernanza. Es una válvula de presión que genera dinámicas adversariales, daños desproporcionados y la ilusión de control.

Cómo se ve un sistema moderno de integridad académica

Paso 1: Hacer explícitas y estandarizables las políticas sobre IA por curso. La fuente más común de conflictos de integridad académica en 2025 es la ambigüedad. En la encuesta de HEPI, los estudiantes describían a sus instituciones como "esquivando el tema"—el uso de IA no está prohibido ni permitido, se describe como conducta deshonesta en un contexto y los propios docentes lo modelan en otro.

La solución administrativa es directa: proporcionar al profesorado un pequeño conjunto de plantillas de política que puedan adoptar y adaptar—una para cursos donde la IA está permitida e incluso promovida con requisitos de divulgación; una para cursos donde la IA está permitida solo en pasos específicos del proceso; y una para cursos donde la IA está prohibida, con justificación pedagógica clara. La claridad a nivel de curso, sostenida en toda la institución mediante lenguaje compartido, es el fundamento de cualquier sistema de integridad que funcione.

Paso 2: Tratar los resultados de detección como señales, no como veredictos. Cuando se utilicen herramientas de detección, sus resultados deben activar revisión humana y conversación directa con el estudiante—no escalada automática. Se deben exigir evidencias del proceso (borradores, notas, bibliografías, historial de revisiones) antes de abrir cualquier procedimiento formal. Las vías de apelación y los estándares de carga probatoria deben publicarse antes de que sean necesarios.

Paso 3: Construir la integridad desde el diseño. Los sistemas de integridad más duraderos no se enfocan en la vigilancia. Se enfocan en diseñar evaluaciones que hagan que la externalización sea realmente difícil y que la participación auténtica sea genuinamente necesaria—un punto que se desarrolla en detalle en la sección siguiente.


IV. Rediseño de las evaluaciones: la crisis de validez es el verdadero problema

La urgencia de esta sección con frecuencia se enmarca incorrectamente como un problema de deshonestidad académica. Es, en realidad, un problema de validez.

Cuando la IA puede generar resultados plausibles para la mayoría de los formatos de evaluación estándar—ensayos para entregar en casa, conjuntos de problemas genéricos, foros de discusión, análisis de casos—esos formatos dejan de medir de manera confiable lo que el profesorado pretende medir. La pregunta no es únicamente si el estudiante presentó su propio trabajo, sino si la evaluación, incluso cuando se realiza con honestidad, constituye evidencia del aprendizaje que afirma evaluar.

El rediseño de las evaluaciones es la palanca más consecuente disponible para los líderes académicos en 2026. Aborda la integridad y la validez de manera simultánea, y es la única intervención que permanece eficaz independientemente de cómo evolucionen las capacidades de la IA.

El modelo de portafolio "seguro y auténtico"

La dirección más sólida que está emergiendo en la práctica combina tres elementos: al menos una evaluación segura por curso que valide los resultados de aprendizaje centrales en un entorno supervisado o controlado; evaluaciones auténticas que reflejen las demandas reales del ejercicio profesional; y evidencia de portafolio acumulada a lo largo del tiempo—borradores, reflexiones, respuestas a retroalimentación, ciclos documentados de revisión.

Nada de esto exige abandonar completamente las estructuras curriculares existentes. Requiere añadir puntos de verificación que hagan visible y evaluable el propio proceso de aprendizaje.

Patrones de rediseño prácticos que escalan

Defensas orales ligeras. Una defensa oral de 5 a 8 minutos sobre un trabajo entregado—con una pregunta seleccionada al azar que invite al estudiante a explicar una decisión clave o a articular su razonamiento—es una de las herramientas de validez más eficientes disponibles. No requiere infraestructura de vigilancia adicional, escala a cursos numerosos con una inversión moderada en ayudantes de cátedra, y es extraordinariamente difícil de preparar con IA como sustituto del propio pensamiento.

Escritura centrada en el proceso. Anclar la calificación no al producto final, sino al proceso documentado: propuesta de tema, bibliografía anotada, esquema con justificación de la tesis, primer borrador con respuesta a la retroalimentación entre pares, segundo borrador con reflexión sobre las revisiones. La IA puede asistir en etapas específicas—generación de ideas, crítica estructural—pero la nota se gana mediante evidencia del pensamiento, no del pulido de la prosa.

Datos locales y únicos. En lugar de "analiza las causas de X", pedir a los estudiantes que analicen un conjunto de datos de una organización colaboradora, un caso del contexto propio de la institución, observaciones de campo, transcripciones de entrevistas o resultados de laboratorio específicos del curso. La IA no puede relacionarse con material que no ha procesado, y los estudiantes deben hacerlo.

Demostración en taller, clínica o práctica profesional. Para los programas profesionales, ampliar la evaluación directa del desempeño: estaciones de tipo ECOE en ciencias de la salud, simulaciones con clientes reales en administración y psicología clínica, resolución de problemas en tiempo real en ingeniería. Estas modalidades han sido siempre el estándar de oro de la formación profesional; la IA eleva su prioridad relativa.

Producciones multimodales. Exigir una combinación—un texto breve, un diagrama anotado, un video de explicación de dos minutos—hace más verificable la autoría, diferencia la evaluación de las capacidades estrictamente textuales de la IA, y es consistente con los principios del Diseño Universal para el Aprendizaje, al ofrecer a los estudiantes múltiples modos de expresión.

Diseñar para evaluaciones que permiten el uso de IA

Para muchos cursos, la prohibición no es ni realista ni pedagógicamente pertinente. La fuerza laboral a la que se incorporan estos estudiantes utiliza IA cotidianamente. La respuesta adecuada no es fingir lo contrario, sino evaluar el uso responsable: exigir la divulgación de qué herramientas de IA se utilizaron, dónde y con qué propósito; exigir que los estudiantes verifiquen afirmaciones e identifiquen fuentes de manera independiente; exigir una demostración de razonamiento autónomo mediante reflexión, defensa oral o crítica argumentada; y construir rúbricas que califiquen la calidad del juicio y la verificación, no el acabado superficial del resultado.

Este es un estándar más exigente que "¿lo escribieron ellos mismos?" Es también una preparación más honesta para el ejercicio profesional.


El modelo operativo institucional: lo que los vicerrectores deben implementar ahora

Las cuatro palancas descritas requieren infraestructura institucional para funcionar a escala. Esa infraestructura tiene tres componentes.

Una Guía Institucional de IA para la Docencia—no un taller de una sola vez, sino un documento vivo, actualizado regularmente, que incluya plantillas de política por tipo de evaluación, orientaciones sobre divulgación y citación, reglas de privacidad y manejo de datos, casos de uso aprobados y ejemplos de evaluaciones rediseñadas por área disciplinar. La orientación de la UNESCO sobre IA generativa en educación insiste reiteradamente en este tipo de construcción sistemática de capacidades como el prerrequisito de una implementación verdaderamente centrada en lo humano.

Gobernanza estructurada como gestión de riesgos, no como adquisición de tecnología. El Marco de Gestión de Riesgos de IA del NIST (AI RMF 1.0) ofrece una estructura voluntaria pero ampliamente adoptada que se traslada con claridad a la educación superior: identificar los riesgos (privacidad, sesgo, alucinaciones, inequidad, validez), especificar los controles que los mitigan (política, formación, diseño de evaluaciones, revisión de proveedores), asignar responsabilidades y revisar periódicamente. Adquirir una plataforma no es una estrategia de gobernanza.

Formación docente práctica, no filosófica. El formato más eficaz es el taller de rediseño: el profesorado llega con un programa de estudios o un desafío evaluativo concreto y sale con un mapa de evaluaciones revisado y al menos un instrumento listo para pilotear. Los grupos de trabajo disciplinares—los cursos de laboratorio operan de manera diferente a los de filosofía, que operan de manera diferente a los de enfermería—superan consistentemente a la formación genérica. La formación de los ayudantes de cátedra es indispensable: son la primera línea tanto del acompañamiento al aprendizaje como de la respuesta a los casos de integridad, y son con frecuencia las personas menos preparadas del sistema.


Reflexión final

Más del 80% de los estudiantes reporta que sus docentes nunca les enseñaron explícitamente cómo usar la IA para actividades académicas—y sin embargo la usan de todas formas, a tasas que crecen rápidamente, en un entorno de profunda ambigüedad normativa. Las instituciones que naveguen bien este momento no serán las que prohíban la IA ni las que simplemente adquieran una plataforma de IA. Serán las que realicen el trabajo más exigente: rediseñar lo que le piden a los estudiantes que demuestren, construir la capacidad docente para evaluarlo, y gobernar la tecnología con el rigor que el momento exige.

Esto no es fundamentalmente un desafío tecnológico; es un desafío de liderazgo que involucra tecnología.

*Texto desarrollado con asistencia de IA.



 
 
 

Comentarios


© 2025 GRG Education LLC

bottom of page