Miles de universitarios del Reino Unido fueron descubiertos haciendo trampa con AI | IT Masters Mag

INTELIGENCIA ARTIFICIAL

Miles de universitarios del Reino Unido fueron descubiertos haciendo trampa con AI



Dirección copiada

Un estudio revela que los casos confirmados de plagio tradicional disminuyeron de 19 por cada 1,000 estudiantes a 15.2 en el curso 2023-24.

Publicado el 17 jun 2025



Gazipur,,Bangladesh-,03,Jan,2025:,Chatgpt,On,The,Laptop,Screen.
Gazipur, Bangladesh- 03 Jan 2025: ChatGPT on the laptop screen.

Miles de estudiantes universitarios en el Reino Unido han sido descubiertos haciendo un mal uso de herramientas de inteligencia artificial (AI, por sus siglas en inglés) en los últimos años, mientras que las formas tradicionales de plagio muestran un marcado descenso.

Una investigación del diario The Guardian sobre las infracciones a la integridad académica reveló casi 7,000 casos comprobados de trampas con herramientas de AI en el curso académico 2023-24, lo que equivale a 5.1 casos por cada 1,000 estudiantes. Esta cifra representa un aumento con respecto a los 1.6 casos por cada 1,000 del curso académico previo.

Los datos ponen de relieve un reto en rápida evolución para las universidades: adaptar los métodos de evaluación a la llegada de tecnologías como ChatGPT y otras herramientas de escritura basadas en AI.

El análisis, con datos hasta mayo de este año, sugiere que la cifra volverá a aumentar este año hasta alcanzar unos 7.5 casos comprobados por cada 1,000 estudiantes; sin embargo, los casos registrados representan solo la punta del iceberg, según los expertos.

El plagio tradicional disminuye

En contraste, el estudio reveló que los casos confirmados de plagio tradicional disminuyeron de 19 por cada 1,000 estudiantes a 15.2 en el curso 2023-24 y se espera que vuelvan a descender a aproximadamente 8.5 por cada 1,000, según las primeras cifras de este curso académico.

En el curso 2019-20, antes de la disponibilidad generalizada de la inteligencia artificial generativa (GenAI, por sus acrónimo en inglés), el plagio representaba casi dos tercios de todas las faltas de conducta académica.

Durante la pandemia, el plagio se intensificó a medida que muchas evaluaciones se trasladaron a la modalidad en línea. Sin embargo, a medida que las herramientas de AI se han vuelto más sofisticadas y accesibles, la naturaleza de las trampas ha cambiado.

Es posible que muchos más casos pasen desapercibidos. Una encuesta realizada por el Instituto de Política de Educación Superior en febrero pasado reveló que 88% de los estudiantes utilizaba AI para evaluaciones.

El año pasado, investigadores de la Universidad de Reading probaron sus propios sistemas de evaluación y lograron entregar trabajos generados con inteligencia artificial sin ser detectados en 94% de los casos.

Universidades aún no están preparadas para AI

The Guardian contactó a 155 universidades, amparándose en la Ley de Libertad de Información (FOIA, por sus siglas en inglés), para solicitar cifras sobre casos comprobados de falta de conducta académica, plagio y falta de conducta relacionada con la AI en los últimos cinco años.

De ellas, 131 proporcionaron datos, aunque no todas las universidades contaban con registros de cada año o categoría de falta de conducta.

Más de 27% de las universidades encuestadas aún no registraron el uso indebido de inteligencia artificial como una categoría independiente de mala conducta en 2023-24, lo que sugiere que el sector aún está abordando el problema.

Universidades mexicanas ya lo contemplan

En México, instituciones como el Tecnológico de Monterrey han implementado “Lineamientos para el uso de inteligencia artificial” que tipifican el plagio de contenido generado por AI y la simulación de conocimientos como acciones no éticas.

La Universidad Nacional Autónoma de México (UNAM) ha emitido “Recomendaciones para el uso de Inteligencia Artificial Generativa en la docencia”, subrayando la obligatoriedad de declarar el empleo de AI como requisito de honestidad académica. Estas directrices reflejan un enfoque en la transparencia y la atribución para el contenido generado.

El desarrollo de políticas específicas sobre el uso de inteligencia artificial en trabajos académicos incluye la redefinición del plagio para abarcar la presentación no declarada de material producido por estas tecnologías.

La Universidad Panamericana enfatiza el control humano y la supervisión activa de la AI, mientras que la Universidad Iberoamericana ha delineado principios de integridad que requieren a los docentes especificar el permiso de uso de esta tecnología en sus cursos. La implementación de estas normativas busca asegurar que la autoría y la responsabilidad del contenido recaigan en el usuario.

Las sanciones por la inobservancia de estas políticas en el contexto académico mexicano se equiparan a las establecidas para otras formas de deshonestidad. Estas pueden incluir la reprobación del trabajo o asignatura, suspensión temporal o, en casos graves, la expulsión de la institución.

La adaptación de los reglamentos universitarios en México evidencia un esfuerzo por mantener la integridad académica en un entorno tecnológico cambiante, enfocándose en la declaración explícita del uso de AI y la responsabilidad del usuario sobre el contenido generado.


Canales

Artículos relacionados

Artículo 1 de 5