Entrevista

Linda Castañeda, doctora en Tecnología Educativa: "ChatGPT ahora mismo es ese alumno vago con labia"

La investigadora está convencida de que el gran reto de nuestro tiempo es entender cómo usar la IA para 'hackear' nuestra propia inteligencia

La doctora Linda Castañeda, experta en la implementación de TIC en los diversos contextos educativos.

La doctora Linda Castañeda, experta en la implementación de TIC en los diversos contextos educativos. / EPC

Helena López

La colombiana Linda Castañeda es una de las investigadoras más importantes sobre el impacto de la tecnología en la educación que participa este miércoles en el EdTech Congress 2023 en el Campus Ciutadella de la UPF, centrado en 'Aprender en tiempos de Inteligencia Artificial (IA)'. Profesora de futuros maestros en la Universidad de Murcia, Castañeda está convencida de que el gran reto de nuestro tiempo es entender cómo usar la IA para 'hackear' nuestra propia inteligencia.

La IA no es algo que haya aparecido ahora. Todos los algoritmos que hacen que nuestros hijos y nosotros mismos estemos pegados a una pantalla son algoritmos de IA. No nos resultan tan sorprendentes como ChatGPT porque no hablamos con ellos, pero de igual manera utilizan una serie de datos que van guardando para mantener nuestra atención la mayor cantidad de tiempo posible.

La atención, ese tesoro.

El mayor capital de cualquier empresa es la atención de los clientes. Ya no es ni tu capacidad de comprar, sino tu tiempo. Y eso opera también para los niños. La mayoría de los juegos gratuitos en línea que usan los niños ofrecen recompensas muy ajustadas a la cantidad de datos que van recogiendo de ellos. Y todo eso se ha conseguido a partir de formas más o menos primitivas de IA. ChatGPT, de momento, lo que ha hecho es precisamente atender a nuestra atención; y eso asusta mucho porque niños y mayores estamos dejando de hacer otras cosas para acabar entregando nuestra atención a ese tipo de cuestiones.

ChatGPT ha puesto sobre la mesa la importancia de reconfigurar qué es lo que tienen que aprender a hacer nuestros alumnos

La dura foto de nuestro tiempo.

A día de hoy, los desarrollos de IA que supuestamente pretendían automatizar cuestiones profundas del aprendizaje no existen. Lo que sí existe es información sobre qué motiva a la gente a quedarse delante de la pantalla para captar su atención y ofrecerle contenidos que sean más que un juego. 

La esencia de la educación ha sido siempre esa: atrapar al alumno, ¿no? Pero la competencia es inmensa…

La gamificación ha resultado ser muy efectiva para la gente que no tenía motivación por las tareas, pero cuando un estudiante está motivado, meterle una gamificación en medio le aburre. 

Siga…

Una de las cosas que más ha remarcado la IA generativa [ChatGPT] es la importancia de reconfigurar qué es lo que tienen que aprender a hacer nuestros niños.

¿Y qué es?

¿El quid de la cuestión es que mi hija aprenda a sumar? Sí, sin duda. La cuestión es ¿cómo voy a evaluar que esa niña ha adquirido esa capacidad? ¿Preguntándoselo? 

¿No?

Si es preguntándoselo, el problema que tenemos con la IA generativa es que probablemente ella nos dará una respuesta que nos va a valer como el 5 de toda la vida. De momento son herramientas de 5 o de 6.

La pandemia sirvió para llevar a cabo una transformación digital a lo bestia, pero también nos entregó a quien nos quisiera ofrecer algo

¿ChatGPT aprueba por los pelos?

De momento, sí. Pero quien no tenga ninguna motivación hacia lo que está aprendiendo intentará por todos los medios llegar a ese cinco sin que pase por su cabeza la más mínima partícula de información: le aburre.

Aprobar sin que pase por tu cabeza la más mínima partícula de información suena preocupante.

Ahí entran cuestiones como para qué sirve aprender. ¿A los niños les enseñamos para qué sirve aprender? Últimamente la investigación en educación habla de dos conceptos: el aprendizaje conectado y el aprendizaje interconectado. Y los dos ponen el énfasis en que el objetivo del aprendizaje tiene que ser muy evidente para el estudiante y el profesor. En el momento en el que consigamos repensar para qué sirve aprender podremos poner en valor el hecho mismo del aprendizaje. Aprender es una actividad, no solo un resultado. 

ChatGPT, entonces, ¿es una herramienta para sacar un cinco sin aprender?

No. ChatGPT es como ese alumno vago con labia. No se las sabe todas, se sabe muchas, pero te suelta una parrafada. El primer párrafo tiene algún sentido; el segundo es una paráfrasis del anterior, y así va parafraseándose a sí mismo. Si le pides las referencias, normalmente te da referencias que no existen. 

La IA nos puede ayudar a automatizar procesos, pero el reto sigue siendo que la gente piense; ahora más que nunca el reto es que no se etiquete a nadie para siempre

Eso mejorará, claro.  

Sí. ChatGPT 4 ya podrá parafrasear un libro entero. Yo intento trabajar con mis alumnos desde el 'recordad que ahora quizá queráis intentar que ChatGPT os haga la tarea, pero en pocos años estaréis al otro lado, preocupados porque no os la cuelen'. La cuestión es ¿cómo se va a trabajar sobre eso? 

¿Es urgente cambiar la forma de evaluar?

Desde lo años 80 hay discursos sobre que urge cambiar la evaluación. Hay mucha investigación señalando que la declaración de conocimientos se queda corta, pero se pasaba de puntillas. Ahora la pregunta de muchos es: ¿cómo voy a darme cuenta de que quién me está haciendo el examen es mi estudiante y no ChatGPT?

Exacto. ¿Cómo?

Pasando por una herramienta de detección. Pero no se trata de pillar al infractor. La cuestión es cómo hacemos para generar una nueva forma de entender la educación. Mis estudiantes en la universidad ya están usando IA, con o sin permiso de sus docentes. 

El mayor capital de cualquier empresa es la atención de los clientes; ya no es ni tu capacidad de comprar, sino tu tiempo

Sin permiso ya imagino. Pónganos ejemplos del uso con permiso.

La IA puede servir para ver qué han entendido de la lección. El primer ejercicio que hicimos este curso es que yo les di una serie de preguntas para que se las dieran a responder a ChatGPT y después revisaran las respuestas. ChatGPT respondió mal a cinco de ellas. Más de la mitad de mis alumnos no revisó las respuestas y me entregaron la chorrada que había puesto ChatGPT. Muy bonita escrita, por cierto, pero una chorrada. A mí me encantó; y les dije ¿Veis? ¡Tenéis que corregir a la tecnología!

El gran reto es entender cómo usarla la IA para 'hackear' nuestra propia inteligencia; repensar cuál es la inteligencia humana a la que no podemos renunciar

Otra preocupación es qué pasa con los datos de nuestros niños. No solo con la IA, también con el Classroom.

Hay que hacerse planteamientos muy serios políticos y legislativos. En la UE ya hay una mesa sobre robots, datos, IA y legislación. No podemos decir "no, no, es que estamos usando Google Classroom porque nos lo dan gratis". Tiene que haber una razón mayor. No sirve que nos digan que no van a hacer nada malo con esos datos. Los legisladores, que son quienes nos protegen, deben tener más información. A las familias nos queda una labor de educación muy importante con este asunto. No solo para los niños, también para nosotros mismos: cuáles son los datos que compartimos, cuál es la higiene digital en casa... En cuanto al Classroom, los responsables no son las familias.

¿Quién es?

Es el sistema educativo. La pandemia sirvió para llevar a cabo una transformación digital a lo bestia, pero también nos entregó a las manos de quien nos quisiera ofrecer algo porque estábamos en una emergencia.

Y nada es gratis.

Las familias tienen algo fundamental que se llama voto. Las familias también mueven el sistema educativo. Hay decisiones políticas, económicas, sobre ciberseguridad, que tienen que tomarse en el corazón de los gobiernos. 

¿Las familias son suficientemente conscientes? 

No se trata del peligro, sino de la realidad. Hay discusiones muy importantes que deberían tenerse y que están relacionadas con los datos, con a quién sirve el sistema educativo, con cuáles son las negociaciones que los gobiernos deben tener con las grandes tecnológicas... porque un colegio no tiene capacidad de negociación, pero un gobierno, sí. La UE sí.

Los algoritmos no tienen moralidad. ¿Las personas que crean los algoritmos sí la tienen? Sí, pero los algoritmos ya crean algoritmos

¿Qué impacto puede tener la la IA en el futuro de la educación?

Siempre hemos pensado que la IA nos iba a hacer aprender como en 'Matrix', donde el 'operator' te cargaba los conocimientos. Pero eso no existe. La IA no funciona en proceso. Te ofrece un resultado final, y si para eso tiene que seguir un camino más o menos ético, o más o menos moral, no tiene ninguna relevancia. Los algoritmos no tienen moralidad. ¿Las personas que crean los algoritmos sí la tienen? Sí, pero los algoritmos ya crean algoritmos. La IA nos puede ayudar a automatizar muchísimos procesos, pero ahora más que nunca el reto es que no se etiquete a nadie para siempre.

¿Qué quiere decir?

A mí me parece peligrosísimo que con los datos de un estudiante de primaria y secundaria se decida qué debe estudiar una persona en la universidad. Conozco a mucha gente que en primaria y secundaria les iba regular y en la universidad son brillantes.

¿Cuál es el principal reto?

Entender cómo usar la IA para 'hackear nuestra propia inteligencia; para repensar cuál es la inteligencia humana a la que no podemos renunciar.

Con el tema del 'classroom' hay que hacerse planteamientos muy serios políticos y legislativos

Se habla de la IA para evaluar a los alumnos sin el sesgo del profesor.

No creo en la evaluación objetiva, siempre es subjetiva. El sentido de la enseñanza no es que el estudiante sepa una serie de cosas, sino que sea capaz de desarrollar una serie de cosas. Para eso, la evaluación que hoy puede hacer una máquina no me sirve. No hay ninguna máquina que que pueda evaluar el pensamiento crítico.

Todo el rato dice 'todavía', 'a día de hoy'... ¿Llegará ese día?

No tengo ni la más remota idea.

Suscríbete para seguir leyendo