Cuando Jocelyn Leitzinger pidió a sus estudiantes que contaran una anécdota personal sobre la discriminación, se dio cuenta de que la víctima solía llamarse Sally. “Estaba claro que era un nombre femenino habitual para ChatGPT”, lamenta esta profesora.
No son alumnos de escuela ni de secundaria, pero “ni siquiera escribían sobre sus propias vidas”, afirma Leitzinger, que imparte clases en el Colegio de Administración de Negocios de la Universidad de Illinois, en Chicago.
Publicidad
La profesora calcula que alrededor de la mitad de sus 180 alumnos utilizaron ChatGPT de forma inadecuada el semestre pasado, incluso al escribir sobre las cuestiones éticas que rodean a la inteligencia artificial (IA)... Y explica que no le sorprenden los resultados de una investigación reciente que sugiere que los estudiantes que utilizan IA generativa para escribir sus trabajos son menos críticos.
El estudio preliminar, que aún no ha sido revisado por pares, se hizo viral en redes sociales, resonando claramente entre muchos docentes que se enfrentan a estas prácticas.
Publicidad
Desde su publicación el mes pasado, más de 3.000 profesores han escrito al equipo de investigadores del MIT que lo llevó a cabo, según declaró su autora principal, la doctora Nataliya Kosmyna.
Para este estudio, 54 estudiantes de la zona de Boston fueron divididos en tres grupos. Tenían que escribir redacciones de 20 minutos, el primero utilizando ChatGPT, el segundo un motor de búsqueda y el tercero solo su pensamiento. Los investigadores midieron la actividad cerebral de los estudiantes durante sesiones espaciadas por varios meses y dos profesores calificaron sus textos.
Los usuarios de ChatGPT tuvieron resultados significativamente peores que los que utilizaron únicamente la cabeza. Los electroencefalogramas mostraron que distintas regiones de sus cerebros se conectaban entre sí con menos frecuencia.
Además, más del 80 % de los usuarios de la IA no podían citar ningún fragmento de la redacción que acababan de escribir, frente al 10 % de cada uno de los otros dos grupos.
Al final de la tercera sesión, los alumnos parecían limitarse principalmente a copiar y pegar.
‘Textos con ortografía, pero sin alma’
Por su parte, los profesores encargados de corregir sus textos declararon que eran capaces de reconocer fácilmente aquellos “sin alma”, escritos gracias a la IA. Aunque la gramática y la estructura eran correctas, les faltaba creatividad, personalidad y una reflexión profunda.
La profesora Alex Hanna, directora del Instituto de Investigación de Inteligencia Artificial Distribuida, explica que a menudo se le pregunta en las universidades cómo integrar de manera ética al salón de clases los modelos de lenguaje de gran escala (LLM), sistemas de IA diseñados para comprender y generar texto. Mientras más lo piensa, más se convence de que la respuesta es “no lo hagan”.
En esa misma línea opinan Sonja Drimmer, investigadora del arte medieval europeo, y Christopher J. Nygren, historiador de arte y arquitectura, coautores de un artículo publicado en el boletín del Centro Internacional de Arte Medieval, titulado Cómo no estamos usando IA en las aulas.
“La premisa que nos dieron para participar en este boletín fue ‘¿Cómo están usando IA en el aula?’. Y aunque hemos aceptado la invitación, nos comprometemos con el acto más humanista que podemos imaginar al rechazar esa premisa. Al final, nuestra objeción para incorporar LLM e IA generativa en nuestra clase es más fundamental”, escribieron. “No solo cortocircuita las vías del aprendizaje, sino que potencialmente nulifica nuestro compromiso pedagógico primordial con los estudiantes y nuestro vínculo académico con el pasado”.
Algunos matices: por qué hacen falta más estudios sobre la IA en entornos educativos
Kosmyna matiza, no obstante, las interpretaciones del estudio que hicieron algunos medios, según las cuales la IA vuelve ‘estúpidas’ o ‘más perezosas’ a las personas.
Durante la cuarta sesión, el grupo que hasta entonces solo había utilizado su cerebro fue invitado a utilizar ChatGPT por primera vez... y mostró un nivel de conectividad neuronal aún mayor, señala.
Ashley Juavinett, neurocientífica en la Universidad de California San Diego, que no participó en el estudio, también critica algunas de las “extrapolaciones” que se hicieron a partir del estudio.
“Este artículo no aporta suficientes pruebas ni rigor metodológico para sacar conclusiones sobre el impacto de los grandes modelos lingüísticos (como ChatGPT) sobre el cerebro”, declara.
Para Leitzinger, sin embargo, estos resultados coinciden con su percepción de cómo ha cambiado la escritura de sus alumnos desde la llegada de ChatGPT en 2022, con menos faltas de ortografía pero también menos autenticidad.
La llegada de la inteligencia artificial se compara a menudo con la introducción de las calculadoras, que obligó a los profesores a cambiar sus métodos. Leitzinger teme que los alumnos ya no necesiten conocimientos básicos antes de utilizar la IA, saltándose la etapa esencial del aprendizaje.
“Escribir es pensar; pensar es escribir. Si eliminamos este proceso, ¿qué queda del pensamiento?”, se pregunta.
Los autores del estudio sobre IA son cautelosos
La doctora Natalita Kosmyna es investigadora en el grupo Media Lab’s Fluid Interfaces del MIT y también docente investigadora invitada en Google. Tiene más de 15 años de experiencia en desarrollo y diseño de principio a fin de interfaces cerebro-computadora. Sus campos de estudio son la inteligencia artificial, las neurociencias y la interacción entre humanos y computadoras.
Ella ha contestado algunas inquietudes sobre el tema.
¿Es correcto decir que los modelos de lenguaje de gran escala (LLM) están haciéndonos ‘más tontos’?
¡No! Por favor, no usen palabras como ‘estúpido’, ‘tonto’, ‘cerebro podrido’ (brain rot), ‘dañado’, ‘pasivo’ y ‘colapsado’. Le hace una injusticia a este trabajo, y nosotros no hemos usado este vocabulario en nuestra investigación.
¿Este proyecto ha sido revisado por pares o está en proceso de serlo?
Actualmente, este documento está en preimpresión. Decidimos liberarlo ahora para recolectar una retroalimentación más amplia y más rápida, pues la velocidad del desarrollo y la integración de los LLM en la vida diaria es imposible de alcanzar, y no es algo que hayamos visto antes.
El proceso de revisión por pares ha empezado, pero estamos en las primeras etapas del proceso y probablemente tomará meses.
¿Están planeando algún estudio adicional en el futuro cercano?
Sí, el siguiente es sobre vibe coding (una técnica de programación que usa lenguaje natural para instruir a la IA a generar, refinar y limpiar código para crear software). Nosotros ya hemos reunido los datos y estamos trabajando en el análisis y el borrador. Por eso, es importante que podamos tener reacciones del público (al primer estudio) ahora.
También nos gustaría recordarles que el estudio tiene una serie de limitaciones, y que es uno de los primeros, así que esperamos más estudios, nuestros y de otros investigadores, con diferentes protocolos, poblaciones, tareas, metodologías que añadan al entendimiento general del uso de los LLM en nuestras vidas. (F)