A man working on his laptop with a wood wall behind him
5 minute read

El nuevo frente en la defensa de la integridad académica: reflexiones iniciales ante el auge de los Agentes de IA

La preocupación por el uso de los Agentes de IA en la educación ha crecido de forma exponencial en las últimas semanas, impulsada por herramientas como Perplexity Comet y Google Homework Help, que hoy se promocionan directamente al público estudiantil. Para quienes aún no están familiarizados con el término, los Agentes de IA, también conocidos como AI Browsers o AI Browser Extensions, son herramientas en línea de fácil acceso que van mucho más allá de generar contenido a partir de un mensaje, como suele hacer ChatGPT. Estas soluciones son capaces de ejecutar tareas en la web por instrucción del usuario, desde iniciar sesión en el LMS (Sistema de Gestión del Aprendizaje) en nombre del estudiante (con sus credenciales), hasta analizar información y participar en actividades del curso, todo ello respaldado por algunos de los modelos de IA más potentes del mundo. No sorprende que este acceso cada vez mayor haya encendido las alarmas en buena parte del sector de educación superior. 

Es importante aclarar un punto fundamental: los Agentes de IA no se presentan como aplicaciones o usuarios independientes, sino que imitan a la perfección la actividad normal de un estudiante dentro del LMS. Dado que operan en las capas de interacción web y automatización, realizando acciones como completar formularios, hacer clic en botones o ejecutar llamadas API, quedan fuera del control directo del LMS. En muchos casos, estas herramientas son totalmente invisibles para la plataforma.  

También es importante destacar que esta situación no se limita a los entornos de aprendizaje en línea, sino que afecta a cualquier sitio web. Un estudio académico reciente, The Hidden Dangers of Browsing AI Agents (disponible en inglés únicamente), explica que estas herramientas están diseñadas deliberadamente para evadir los mecanismos de detección a nivel de aplicación y pueden interactuar con los sistemas sin ser detectadas. En la misma línea, la BBC señaló que los Agentes de IA son "difíciles de rastrear y aún más de bloquear, porque se camuflan como actividad normal de los usuarios dentro de los ecosistemas digitales existentes".  

En resumen, con la tecnología disponible en la actualidad, ni Blackboard ni ningún otro proveedor de LMS o servicio web puede detectar de forma confiable la presencia de un Agente de IA, y mucho menos bloquearlo. 

Ante la ausencia de mecanismos técnicos de control, las respuestas a corto plazo frente al posible uso indebido de los Agentes de IA deberán establecerse a través de políticas institucionales. La prevención real del acceso estudiantil a estas herramientas solo sería viable en aquellas instituciones que controlan por completo la red o los dispositivos utilizados por sus estudiantes, una alternativa que podría explorarse en el sector K-12, pero cuya aplicación en educación superior es limitada. Entre las medidas complementarias se pueden considerar herramientas como los lockdown browsers, que crean un entorno aislado alrededor del LMS. Asimismo, las instituciones pueden orientar a su comunidad estudiantil actualizando sus políticas sobre el uso de IA generativa, con el fin de definir con claridad qué prácticas están permitidas o prohibidas, y ofrecer capacitación sobre estas directrices actualizadas. 

En Anthology tenemosuna convicción clara, ya expresada en el contexto del uso de la IA en casos de plagio: bloquear la inteligencia artificial en el aula es muy difícil, y las instituciones verán mejores resultados si adaptan su enfoque pedagógico a la era de la IA. La inteligencia artificial ya cumple un papel esencial tanto en la vida cotidiana del estudiante como en varios campos profesionales de alta demanda. Por ello, la educación superior debe centrarse en preparar a los alumnos para un mundo donde la inteligencia humana y la artificial actúan de forma conjunta y complementaria. En el centro de los desafíos que plantean los Agentes de IA está la participación del alumno. Cuando los estudiantes se comprometen con su curso y perciben una relación clara entre lo que aprenden y las oportunidades laborales, se sienten más motivados a comprender realmente los contenidos y a usar la IA de una manera que favorezca, en lugar de obstaculizar o sustituir, ese proceso de aprendizaje.  

Reconsiderar las prácticas de evaluación se ha convertido en una prioridad clave en este contexto. Con esto en mente, conformamos recientemente el grupo de trabajo Future of Assessment, y las ideas compartidas por esta red global de especialistas ya están guiando nuestros planes de desarrollo. Liderado por Lisa Clark, EdD, Vicepresidenta Asociada de Transformación Académica en Anthology, hemos publicado un nuevo white paper (informe técnico) que replantea la Taxonomía de Bloom para la era de la IA (disponible en inglés) y ofrece pasos prácticos para que las instituciones puedan diseñar evaluaciones auténticas. En octubre presentaremos un informe más amplio sobre el futuro de la evaluación, junto con nuevos contenidos en los próximos meses. ¡Le invitamos a seguir nuestras novedades en LinkedIn y en la Comunidad de Anthology

Por último, a medida que las aplicaciones de IA y su uso continúan expandiéndose de forma exponencial, también crece la importancia de contar con marcos éticos sólidos. Nuestro Anthology Trustworthy Approach sigue siendo nuestra guía principal mientras incorporamos innovaciones nativas de IA líderes en el mercado en Blackboard. Además, seguimos colaborando con instituciones de todo el mundo para ayudarles a establecer políticas eficaces para sus docentes, estudiantes y otras partes interesadas.  

Ben Burrett head shot

Ben Burrett

Gerente Senior de Marketing de Producto

Ben siente una gran pasión por el papel de la tecnología en el avance de la educación y trabaja en estrecha colaboración con el equipo de gestión de productos de Anthology y con expertos en la materia para apoyar el posicionamiento y la promoción de nuestros servicios de Éxito Estudiantil y de Blackboard.

Dom Gore head shot

Dom Gore

Director de Producto de Blackboard Core

Dom Gore es Director de Producto de Blackboard Core en Anthology Inc. y lidera la visión, la estrategia y la ejecución del sistema de gestión del aprendizaje Blackboard. En este cargo, supervisa al equipo central de Gestión de Producto de Blackboard, orientando el desarrollo de la hoja de ruta, la colaboración multifuncional y la entrega efectiva de soluciones que impulsan la adopción y el rendimiento de la plataforma. Dom cuenta con una amplia experiencia en liderazgo de producto dentro del sector EdTech, vinculación con clientes e innovación orientada a resultados.