Eduardo Mosqueira, profesor de la UDC: «Yo ya uso el ChatGPT para poner los exámenes de mis alumnos»
YES
«En alguna ocasión lo he utilizado para que me dé un código de ejemplo distinto al que suelo emplear yo», apunta este profesor partidario de regular este tipo de tecnología cuanto antes
24 abr 2023 . Actualizado a las 12:41 h.Eduardo Mosqueira, profesor titular de la UDC en el área de Ciencias de la Computación e Inteligencia Artificial (IA) no niega el impacto que puede tener esta nueva tecnología en algunos sectores, sin embargo, advierte que este recorte de personal irá de la mano de la creación de otros puestos. «A lo mejor habrá tres personas haciendo lo que antes hacían diez, pero eso ya ha pasado en otros momentos», señala a la vez que se reafirma en que los beneficios son superiores a los riesgos. «Nos va a liberar de los trabajos más pesados, a reducir tiempos, vamos a ser más productivos».
—¿Has usado el ChatGPT?
—Sí, claro, como para no usarlo.
—¿Para qué lo has usado?
—Cuando salió este chat, las prácticas de este año, la asignatura es del primer cuatrimestre, ya estaban puestas, pero, de cara al que viene, voy a tener que cambiar un poco el sistema. Hice la prueba, le puse las prácticas, y las primeras, que son muy fáciles, muy dirigidas, para que el alumno se familiarice con el lenguaje, las resolvió. Cometió algún fallo, pero se lo dices y te lo arregla. Había que revisarlas, pero, en general, las clavó. Así que voy a tener que poner el enunciado un poco más ambiguo, con varias soluciones posibles, para que no lo resuelva en un minuto.
—¿Estás mentalizado de que tus alumnos lo van a usar?
—Si se las hace, las van a acabar haciendo, entonces no se las voy a dar tan masticadas. Ahora también había programas, servicios en internet a los cuales les encargabas las prácticas y te las devolvían por un módico precio, pero era una persona, no programa. Si no la quieres rascar, hay herramientas, pero hay un examen, y ahí tienes que demostrar que sabes hacerlo. Esto ya ocurría, nosotros solemos hacer las prácticas en grupo, son muchos alumnos, y la programación en pareja es algo que se recomienda, y en un equipo siempre hay uno que trabaja y otro que lleva café al que trabaja. Puedes ser el que lleve café, pero en el examen tienes que saber hacerlo.
—¿Y de cara al examen?
—Yo para alguna pregunta del examen ya lo he utilizado, igual no las he utilizado tal cual, porque era ir demasiado a pillar, y no es lo que quiero, pero sí me ha inspirado para, a partir de sus ejemplos, poner otras preguntas.
—¿Le tenemos que tener recelo o verlo con buenos ojos?
—Es una tecnología disruptiva, que va a cambiar cómo se hacían las cosas, algunas para mejorar, y otras, que antes se hacían de una forma, ahora no se van a poder hacer así, lo que te decía, no les puedes poner una práctica tan sencilla, habrá que pensar otra forma. Desde el punto de vista del trabajo, yo tengo muchos amigos que trabajan programando, y me dicen que tareas que antes les llevaba un día o dos, ahora, en una hora tienen el resultado. Hay que revisarlo, igual no vale como te lo da de primeras, pero...
—Dicen que lo mejor está por llegar, que no hemos visto la mejor versión... ¿no?
—Es que si quedara ahí, pero parece que no... Básicamente lo que están haciendo estos grandes modelos lingüísticos (este tipo de chats), con la siguiente versión, la siguiente, la siguiente… es hacerlos más grandes. Poniéndoles más parámetros, entrenándolos, que tengan más contexto, que el número de palabras que tienen en cuenta para darte una respuesta sea cada vez más grande… Los están haciendo crecer en tamaño, y de momento, no se sabe dónde está el límite. Han hecho la prueba de pasar exámenes de Selectividad en EE.UU., para hacerte abogado… y el nuevo modelo (ChatGPT4) lo hace mucho mejor que el 3. Pero ahora surge la duda, ¿esto tiene un límite?
—Con la versión que está por venir, que va a ser IA general, dicen que no vas a saber diferenciar si lo ha hecho una máquina o un humano…
—La duda es si con estos modelos llegarás a la IA general, hay gente que dice que no.
—Y respecto a los trabajos, ¿tenemos que tener miedo? No que se eliminen, pero que se reduzcan las plantillas.
—Es lo que ha pasado siempre con todas las tecnologías, van a desaparecer algunos, pero van a aparecer otros nuevos, y la gente que use estas herramientas va a ser más productiva. Sí, a lo mejor habrá tres personas haciendo lo que antes hacían diez, pero eso ya ha pasado en otros momentos. Yo ahora tengo una nevera, y no me hace falta tener a cien personas repartiendo hielo, pero tendré a personas haciendo neveras, y además, avanzaremos, porque las comidas las enfriaremos mejor, y podrán estar más tiempo en la nevera. Y a lo mejor en vez de ser tú la que escribas la noticia, vas a ser un editor de la noticia que escriba una IA, a lo mejor tu trabajo se transforma.
—¿Cuáles están más en riesgo? ¿El campo de la informática?
—A ver, a un fontanero le importa un pimiento la IA, pero a un traductor, o a un escritor creativo, o a los gestores… Llegará un momento que le digas: «Estos son mis datos, hazme la declaración de la renta».
—En lo mecánico lo puedo visualizar, pero cuando entra en juego la creatividad tengo más dudas, porque el factor humano es muy importante.
—Sí, pero hace no mucho se pensaba que la creatividad era imposible de programar, o difícil, pero ahora se ha demostrado que se puede. A estos sistemas los estás entrenando, con el ChatGPT cogen la Wikipedia entera y se la leen, y entra un poco la duda de lo que dices tú… ¿Hasta qué punto es creativo? Porque no está copiando, lo que hace es saber estadísticamente la siguiente palabra que tiene que responder, va haciendo una frase, y va añadiendo las palabras por probabilidades... Está la duda de si es creativo porque está mirando cosas que han hecho los humanos. Hay un ejemplo que se hizo famoso hace dos años, que se le pedía una imagen de una silla con forma de aguacate y es capaz de hacerlo sabiendo lo que es una silla y un aguacate, pero la mezcla de los dos es algo totalmente creativo que no ha visto en sus datos de entrenamiento.
—Cuanta más información le des, más afina. Aquí va a estar una de las profesiones del futuro, como dirigirte a la máquina, por ejemplo, Prompt Engineering.
—Sí, claro, será una más de las que aparecerán. Lo que te decía, en vez de ser un escritor, a lo mejor puede ser un editor de lo que escriba la IA o puede ser una persona que le dé los datos a la IA para que lo escriba, y tú luego le matices. Habrá expertos en manejar estas herramientas.
—De momento tiene errores...
—Sí, porque a veces se equivoca, pero tal y como escribe las respuestas, parece que tiene autoridad… A veces, te dice: «Sí, sí, la respuesta es…». Parece que es cierto, y muchas veces no. Ahí está otra incógnita que tienen estos grandes modelos lingüísticos, si entienden lo que están escribiendo o es un loro repitiendo lo que ha leído y se ha entrenado para repetir. Hay gente que piensa que a estos modelos les falta una comprensión simbólica de lo que hay detrás, saber lo que está respondiendo, y no responder palabras por pura estadística, por muy compleja que sea. Pero aunque les falte esa comprensión, los resultados de ahora ya son bastante impresionantes.
—¿Qué es lo que mejor hace?
—En programación es bastante impresionante, yo es lo que conozco. Creo que porque es un entorno más reducido, no hay tanta libertad, si le dices cuál es la mejor película del mundo, igual desvaría, pero si le das una tarea muy concreta lo resuelve muy bien. En programación ya había un sistema que estaba en marcha, igual no tan conocido (Github Copilot de Microsoft), era una herramienta en la que escribías comentarios, y te sugería la función. Se usa en todo el mundo, y Microsoft lo que hizo fue entrenar una IA de este estilo con los millones de códigos que hay ahí metidos, aunque genera dudas sobre cuál es el copyright de eso… Hay compañías que prohíben usar este código porque desconocen los problemas de copyright que puedan surgir en el futuro, sobre todo las que hacen software abierto, que cualquiera puede mirar tu código y decir: «Es mío». Si lo tienen cerrado, y nadie lo ve, pues les da un poco igual. También pone muy bien los títulos a los trabajos científicos, son muy buenos, muy provocativos, que a veces le tienes que bajar el nivel porque dices: «Ostras, parece que estoy descubriendo el mundo»
—¿Y mejora lo que ya había o es similar?
—A nivel de código es similar, pero este estaba restringido al código, tú le pones el comentario de la función, se la describes y te la crea, pero el ChatGPT le dices eso y te lo hace, pero le dices que te haga una obra de Lope de Vega y también te lo hace. Eso es lo impresionante de este chat, la variabilidad de dominios en los que se mueve. Y que tú le puedes describir en lenguaje natural lo que quieres hacer, lo otro le ibas poniendo comentarios de código, era un programador el que lo hacía, ahora cualquiera puede indicarle, y es precisamente esto, estar hablando con él como si fuera una persona, pedirle cosas, como si fuera el vecino de al lado, lo que lo ha popularizado.
—La tecnología siempre va por delante de la ley. ¿Habría que regularizar esto ya o vamos tarde?
—Siempre vamos tarde. La tecnología siempre va por delante y las leyes por detrás, pero de alguna forma habría que regularlo. En Estados Unidos existe el concepto fair use, que te deja usar imágenes que no son tuyas para hacer un uso razonable de estas, pero en Europa no es así.
—Ahora ya había trabajos que se realizan con inteligencia artificial, ¿no?
—Sí, sí, se está usando en un montón de ámbitos. En Medicina hay muchos avances, hace poco salió que habían analizado la fiabilidad de los expertos humanos y de una IA evaluando un electrocardiograma, y las IA daban mejores resultados y más consistentes. Cosas que para los humanos son muy pesadas de hacer, y que una IA puede hacer por ti de forma automática...
—¿Nos va a liberar de los trabajos pesados?
—Sí, vamos a ser más productivos. Los médicos, a lo mejor, no tienen por qué pararse a mirar todos los detalles, cuando tienes una IA que lo hace por ti. El desarrollo tiene que ir hacia ahí, en hacer esas IA más confiables, con más capacidades de explicación. Hoy en día, da unos resultados muy buenos, pero no puedes fiarte al cien por cien.
—Italia lo ha prohibido, ¿qué opinas?
— Que las preocupaciones sobre protección de datos son muy importantes, pero en el fondo una prohibición es como ponerle puertas al campo. Que un Gobierno pare la innovación es como de la Edad Media, en general, tiene pinta de ser mala idea. No lo puedes evitar, puedes regularlo, que yo creo que nadie puede estar en contra, igual que se han regulado otras tecnologías. Aparecieron los coches, tienen un montón de ventajas, pero también te pueden atropellar, hay que poner semáforos, no los puedes dejar libremente por ahí… Las cosas hay que regularlas, pero prohibirlas... Porque tú las prohibirás, pero el país de al lado no, y va a sacar una ventaja competitiva sobre ti. Y el hecho de que la Aesia esté en A Coruña nos pone en el foco del desarrollo pionero.
—Entonces, hay que calmar los nervios, no viene a acabar con el mundo..
—El otro día en un congreso estuve cenando con una persona que dio una charla, y que dijo que había firmado la moratoria de seis meses (un grupo de personas, entre ellos Elon Musk, pidieron que se frenara seis meses el desarrollo de la IA), y yo le dije: «¿Realmente piensas que vale para algo?», y me dice: «No, pero es la única forma que tengo de mostrar mi preocupación, de hacer ver a la gente que existen unos riesgos». Pero también existen muchos beneficios, y sobrepasan a los riesgos, y de momento no hay ningún indicio de que vaya a haber una superioridad que aniquile la raza humana. Muchos desarrolladores opinan que los riesgos de que una IA nos lleve a la extinción del ser humano son infinitesimales, si los sistemas los haces bien.
—A la extinción no, pero sí hacia un recorte de personal en algunos sectores.
—Sí, pero cuando inventamos el coche la gente que criaba caballos a lo mejor también se fue al paro, no todas, igual se centraron en las hípicas, pero no hay tantos trabajos criando caballos…