El periodo de admisión universitaria ya está aquí. Y también la lucha por saber si la IA escribió los ensayos de los estudiantes

Con el uso cada vez mayor de la IA, los funcionarios del campus están tratando de establecer pautas claras para los ensayos de solicitud de ingreso a la universidad.
Toby Reed, estudiante de la escuela secundaria Fremont en Oakland, en el campus el 10 de octubre de 2023. Photo Credit: Laure Andrillon / CalMatters

Carolyn Jones & Mikhail Zinshteyn
CalMatters

La inteligencia artificial podría ser la nueva frontera en tecnología, pero Toby Reed, estudiante de último año de Fremont High en Oakland, no tiene dudas sobre si aprovechar sus poderes – al menos en su ensayo de solicitud de ingreso a la universidad.

“No. Es descaradamente un plagio”, dijo Reed, quien, como cientos de miles de estudiantes de último año de preparatoria de California, está en el proceso de postular a las universidades. “Ya es bastante malo robar contenido, pero con ChatGPT ni siquiera le estás robando a una persona real”.

En la primera temporada de solicitudes desde que las herramientas de IA generativa como ChatGPT están ampliamente disponibles, las universidades y escuelas secundarias están lidiando con las implicaciones éticas y prácticas de la tecnología de escritura de textos. “No podemos fingir que lo ignoramos”, dijo Josh Godinez, consejero de la escuela secundaria Centennial High en el condado de Riverside y ex presidente de la Asociación de Consejeros Escolares de California. Los estudiantes están utilizando la IA en sus ensayos de solicitud de ingreso a la universidad, les guste o no a los adultos, dijo.

La mayoría de los líderes escolares y expertos universitarios que entrevistó CalMatters coinciden en que los estudiantes que dependen exclusivamente de la IA para escribir sus ensayos de solicitud de ingreso a la universidad están violando las reglas de integridad académica y están sujetos a que sus solicitudes sean rechazadas. Pero hay muchos matices en los detalles y las pautas pueden ser vagas y confusas.

“Ya es bastante malo robar contenido, pero con ChatGPT ni siquiera le estás robando a una persona real”.

TOBY REED, ÚLTIMO AÑO DE FREMONT HIGH EN OAKLAND

El Departamento de Educación de California alienta a los distritos a explorar los beneficios potenciales de la IA, particularmente en el plan de estudios de informática o como parte de lecciones más amplias sobre alfabetización mediática. Pero deja las decisiones sobre el uso de la IA en las aulas en manos de los distritos escolares – muchos de los cuales tienen políticas que prohíben el plagio, lo que podría incluir el uso de la IA para escribir ensayos, por ejemplo.

Eso significa que la mayoría de los estudiantes que ahora solicitan ingreso a la universidad están al menos familiarizados con la ética del uso de la tecnología para escribir sus ensayos.

“Queremos que nuestros estudiantes comprendan cómo funciona la IA y cómo aprovecharla, pero también comprendan las implicaciones éticas”, dijo Katherine Goyette, coordinadora de informática del departamento de educación del estado. “La IA está aquí. Necesitamos enseñar a los estudiantes y educadores cómo aprender con él y aprender sobre él”.

E incluso si las universidades prohíben los ensayos cuya procedencia sea la IA generativa, atrapar a un estudiante por plagio robótico es una ciencia imprecisa. La compañía detrás de ChatGPT cerró su propia herramienta para detectar texto generado por IA en julio, citando una alta tasa de texto derivado de humanos que la aplicación marcó como escrito por IA. Un académico en un artículo de Wired señaló que incluso una tasa del 1% de falsos positivos es imperdonable, porque por cada 1.000 ensayos, hay 10 estudiantes que podrían ser acusados ​​de un robo académico que no cometieron.

JR González, director de tecnología de la Oficina de Educación del Condado de Los Ángeles, señaló que ninguna herramienta de detección de IA es 100% precisa. Y la propia IA puede, en ocasiones, producir información errónea.

Diferentes políticas sobre IA en los ensayos de admission

Common App, la herramienta de solicitud de admisión a la universidad utilizada por 1.000 instituciones en todo el país, incluyó en agosto una restricción al uso “sustantivo” de la IA en las solicitudes de admisión a la universidad como parte de su política de fraude. La incorporación fue una respuesta a los comentarios de las universidades miembros y al deseo interno de “mantenerse al día con las tecnologías cambiantes”, escribió un portavoz.

¿Qué significa “sustantivo”? La directora ejecutiva de Common App, Jenny Rickard, dijo que no existe una definición, y que eso es intencional, y escribió en un correo electrónico que “evaluaremos la totalidad de las circunstancias para determinar si un estudiante realmente tuvo la intención de tergiversar el contenido generado por la tecnología de inteligencia artificial como si fuera su propio trabajo”.

Common App no ​​determina si los estudiantes son honestos – eso corresponde a las universidades miembros averiguarlo. Pero si Common App concluye que un estudiante plagió, la cuenta de ese estudiante puede cancelarse y Common App notificará a los campus a los que el estudiante presentó su solicitud, escribió Rickard.

La Universidad del Sur de California, que utiliza la Common App exclusivamente para procesar sus admisiones y es una de las mejores opciones para los solicitantes de la Common App, es menos indulgente.

“Si supiéramos que un solicitante había utilizado IA generativa para cualquier parte de su solicitud, su solicitud sería rechazada inmediatamente”, dijo la universidad en una declaración escrita. La escuela rechazó la solicitud de CalMatters de entrevistar a un funcionario de admisiones.

Pero a las palabras severas les faltan dientes. La universidad privada, altamente selectiva, no emplea ningún software de detección de IA, escribió un portavoz.

La Universidad de California y sus nueve campus universitarios permiten a los estudiantes utilizar IA generativa en ensayos de admisión de forma limitada, como “asesoramiento sobre contenido y edición”, pero “el contenido y el texto escrito final deben ser suyos”, establece su política escrita. A diferencia de los campus privados del estado, la UC opera su propio portal de admisiones.

Pero la Oficina del Presidente de la UC, que rechazó una solicitud de CalMatters para una entrevista sobre el tema, no especificó cómo detecta si los estudiantes confiaron en herramientas de inteligencia artificial para escribir sus ensayos.  La UC realiza evaluaciones periódicas para verificar la integridad de las respuestas, puede solicitar la autenticación del contenido o escrito como del estudiante y tomará medidas cuando se determine que la integridad de la respuesta está comprometida”, incluido el plagio a través de IA, su guía. estados.

Un portavoz de la UC, Ryan King, sugirió que los estudiantes están desperdiciando su esfuerzo al confiar en herramientas generativas de inteligencia artificial y escribió que “sería más trabajo para ellos intentar construir un mensaje ChatGPT sólido que desarrollar sus propias respuestas originales a las (preguntas de ensayo)”).”

Los campus que respondieron a CalMatters indicaron que, si bien la IA generativa puede ser una fuente para escupir ideas, estructurar un esquema y, en general, dar forma al proceso de redacción de ensayos, las herramientas no están a la altura de las voces humanas para comunicar matices y cómo las experiencias de vida de un solicitante se relacionan con las diversas preguntas del ensayo. También hay espacio limitado para la escritura banal que suelen generar las herramientas de inteligencia artificial – la respuesta del ensayo de la aplicación común no puede exceder las 650 palabras, mientras que los cuatro ensayos de la UC tienen un límite de 350 palabras cada uno.

Pomona College, una institución altamente selectiva que acepta solicitudes a través de la aplicación común, no tiene una política formal sobre el uso de IA en los ensayos de admisión, aunque su director de admisiones cree que “no es muy bueno para los matices, la personalización o para ayudar a un estudiante a comunicarse con su voz auténtica, que es lo que realmente buscamos cuando evaluamos una solicitud”, escribió Adam Sapp en un correo electrónico.

“El valor de una respuesta de 350 palabras sobre temas como liderazgo, resiliencia o creatividad puede verse disminuido si no refleja directamente las propias experiencias de un estudiante”, señaló en un correo electrónico la directora de admisiones de pregrado de UC Riverside, Verónica Zendejas.

Las respuestas de la Universidad de Stanford y la UC Berkeley transmitieron sentimientos similares.

“Queremos que nuestros estudiantes comprendan cómo funciona la IA y cómo aprovecharla, pero también comprendan sus implicaciones éticas”.

KATHERINE GOYETTE, COORDINADORA DE INFORMÁTICA DEL DEPARTAMENTO DE EDUCACIÓN DE CALIFORNIA

Zendejas ofrece consejos prácticos para elaborar respuestas de ensayos que provoquen ansiedad, y les dice a los futuros estudiantes que “escriban en prosa clara y directa, como lo harían en una entrevista o una conversación”. Este enfoque debería aliviar las preocupaciones sobre la necesidad de herramientas de inteligencia artificial para ayudar a escribir sus respuestas”.

La Universidad de San Francisco, otro socio de Common App, no utilizará software de detección de IA para solicitudes universitarias porque el campus no lo considera necesario. La imagen completa de la idoneidad de un estudiante en el campus se ve a partir de sus calificaciones, cartas de recomendación y otros aspectos de la revisión holística de la solicitud, dijo en una entrevista la rectora asociada de la universidad que supervisa las admisiones de pregrado, Sherie Gilmore-Cleveland.

Gilmore-Cleveland dijo que después de los resultados académicos de un estudiante en la escuela secundaria, el ensayo es el segundo factor más importante en la solicitud de un estudiante en la Universidad de San Francisco. Pero en sus más de 20 años trabajando en admisiones, nunca se encontró con un estudiante con malas calificaciones y un buen ensayo que fuera admitido. Otros responsables de admisiones también han cuestionado cuánto impulso le da un ensayo al solicitante.

Sin embargo, un estudiante con buenas calificaciones y un ensayo pésimo puede ser rechazado de la universidad si intenta postularse para una especialización competitiva. El estudiante puede ser redirigido a otra especialización o simplemente ser rechazado de plano; es una cuestión de caso por caso, dijo Gilmore-Cleveland.

Usar IA generativa es fácil

Pero no todos los que solicitan ingreso a la universidad con un componente de ensayo son buenos escritores, dijo Jeffrey Hancock, profesor de comunicación de la Universidad de Stanford.  “Probablemente descubrirán que les va mejor cuando utilicen una herramienta como esta”, dijo Hancock sobre los solicitantes que utilizan IA generativa.

Hancock dijo que los estudiantes sin experiencia en codificación pueden probar una herramienta como ChatGPT, especialmente la última versión premium, para generar ensayos sólidos, en un proceso conocido como ajuste.

Primero, un solicitante pega ensayos de estudiantes que fueron admitidos en las mejores universidades en una herramienta de IA. El estudiante le dice a la herramienta que analice los ensayos en busca de rasgos positivos. Luego, el solicitante sube ensayos de estudiantes que fueron rechazados de las escuelas y solicita a la IA que busque patrones a evitar. En el proceso, el estudiante confirma que la herramienta de IA comprende la tarea. “¿Entiendes la diferencia entre los dos? Diría ‘sí, he encontrado este patrón versus aquel patrón'”, dijo Hancock.

Finalmente, el estudiante solicita a la herramienta que genere un borrador basado en esos hallazgos.

Hancock copublicó un estudio revisado por pares en marzo que muestra que los humanos pueden detectar trabajos escritos por IA con tanta precisión como predecir un volado, lo que significa, inadecuadamente. Y “a medida que se construyen detectores, la IA mejora”, dijo Hancock, y agregó que anticipa una carrera armamentista entre la detección y la evasión.

Y si bien la IA generativa puede ser la última causa célebre, es parte de una larga lista de ayuda a la que los estudiantes han podido acceder durante décadas. Maestros, consejeros y familiares ofrecen a los estudiantes apoyo en la escritura. Lo mismo pueden hacer los tutores costosos, quienes (incluso si se oponen éticamente a escribir un ensayo para un estudiante) aún pueden brindar capacitación personalizada de una manera que es inaccesible para la mayoría de los estudiantes de bajos ingresos.

“A medida que se construyen detectores, la IA mejora”, dijo Hancock, y agregó que anticipa una carrera armamentista entre la detección y la evasión.

El debate sobre el uso de la IA en las aplicaciones universitarias refleja una tendencia más amplia en las aulas. Los educadores están decidiendo cómo adaptarse a la inteligencia artificial, especialmente a medida que mejora y se vuelve más ubicua. Algunos distritos aún tienen que abordar el problema, mientras que otros han adoptado directrices integrales que promueven sus beneficios y advierten sobre sus peligros.

La Oficina de Educación del Condado de Los Ángeles celebró un simposio sobre IA el verano pasado para cientos de educadores y está elaborando directrices para los 80 distritos que supervisa. A pesar de los riesgos obvios de la IA, los beneficios más obvios, según González, son para los profesores y administradores: crear planes de lecciones, crear horarios maestros, realizar un seguimiento del rendimiento y la asistencia de los estudiantes, redactar solicitudes de subvenciones e incluso elaborar planes de rendición de cuentas exigidos por el estado.

Christine Elgersma, editora senior de estrategia de contenido de aprendizaje en Common Sense Media, una organización sin fines de lucro de investigación y promoción, sugiere que las escuelas avancen cuidadosamente a medida que crean políticas de IA e incluyen a los estudiantes en la discusión. Los estudiantes deben comprender las implicaciones éticas, los sesgos que existen en los algoritmos de IA, el potencial de desinformación y los riesgos para la privacidad.

“Dado que los ensayos universitarios son tan personales, surge una cuestión de privacidad”, dijo Elgersma. “Por ejemplo, partes de su historia podrían aparecer dobladas en el ensayo generado por IA de otro estudiante”.

Los estudiantes también deben comprender el valor de aprender a escribir y pensar de forma independiente, “desarrollando sus propias ideas y expresándose en palabras, con claridad, profundidad y un estilo propio”, dijo.

Tara Sorkhabi, estudiante de último año de la escuela secundaria Monte Vista en Danville, dijo que sus maestros han sido claros al desalentar, si no prohibir rotundamente, el uso de IA para tareas de escritura. Si bien Sorkhabi ha encontrado que la IA es útil para estudiar química, por ejemplo, no cree que los estudiantes deban usarla para los ensayos de solicitud de ingreso a la universidad.

“Los funcionarios de admisiones no sabrían a quién están aceptando. Básicamente estarían admitiendo un bot”, dijo.

También cree que permitir la IA en los ensayos de solicitud de ingreso a la universidad es injusto para los estudiantes que trabajan durante semanas perfeccionando sus propios ensayos sin la ayuda de máquinas.

Reed, estudiante de último año de Fremont High, dijo que los estudiantes que dependen demasiado de la IA para las tareas de escritura en última instancia se están engañando a sí mismos, porque no están aprendiendo habilidades valiosas como la investigación, la expresión y el pensamiento crítico.

“Es tu futuro”, dijo Reed, señalando que los estudiantes deben aprovechar las oportunidades para expandir sus mentes, no usar atajos. “No se puede plagiar en la escuela. No puedes hacerlo en el trabajo. A la gente le gusta la IA porque es rápida y fácil, pero no es buena”.

Categories
Education

RELATED BY

0