La universidad de Princeton pone fin a 133 años de exámenes sin supervisión por el auge de la inteligencia artificial

La universidad de Princeton pone fin a 133 años de exámenes sin supervisión por el auge de la inteligencia artificial

La expansión de herramientas como ChatGPT, Google Gemini y Microsoft Copilot está obligando a las universidades a replantear no solo sus normas, sino también la manera en que evalúan el conocimiento. El ejemplo más reciente llega desde Princeton University, que abandonará una tradición vigente desde 1893 y comenzará a supervisar todos sus exámenes presenciales a partir del 1 de julio.

La decisión marca el final de un sistema basado en la confianza entre la institución y los estudiantes. Durante más de un siglo, Princeton permitió realizar evaluaciones sin vigilancia directa bajo su conocido Honor Code, pero la combinación de smartphones y modelos de lenguaje generativo terminó por debilitar ese esquema. La universidad considera que las nuevas herramientas han convertido las trampas académicas en algo rápido, accesible y difícil de detectar.

Los datos internos explican por qué la institución decidió actuar. En una encuesta realizada entre estudiantes de último año, el 29,9 % reconoció haber hecho trampa en tareas o exámenes, mientras que el 44,6 % aseguró conocer violaciones al código de honor sin denunciarlas. Apenas el 0,4 % afirmó haber reportado a otro estudiante. Además, un 27,7 % admitió haber utilizado ChatGPT en trabajos donde estaba expresamente prohibido.

El fenómeno va mucho más allá de Princeton. Según datos de College Board, el 74 % de los profesores universitarios en Estados Unidos ha detectado estudiantes usando inteligencia artificial para redactar ensayos o trabajos académicos, y el 92 % teme el impacto de estas herramientas sobre la integridad académica. En paralelo, un informe de Higher Education Policy Institute reveló que el 92 % de los estudiantes ya utiliza inteligencia artificial de alguna forma y que el 88 % la emplea en tareas calificadas.

El debate ya no gira únicamente en torno a las herramientas, sino a la propia estructura educativa. Muchas universidades empiezan a asumir que la IA formará parte inevitable del trabajo académico y, en consecuencia, están modificando sus métodos de evaluación. El modelo tradicional de tareas para casa pierde peso frente a exámenes presenciales, pruebas orales y proyectos divididos en etapas, formatos que dificultan resolver todo con una sola instrucción generada por IA.

Este cambio también implica nuevos costes para las instituciones: más carga organizativa, mayor trabajo para los docentes y una relación menos basada en la confianza automática entre alumnos y universidades. Aun así, cada vez más centros consideran que adaptar el sistema resulta menos problemático que mantener la idea de un trabajo completamente individual en una era dominada por la inteligencia artificial.