Los riesgos de fiarse de ChatGPT: respuestas incompletas, sesgos y la obligación de comprobarlo todo

RED

DADO RUVIC | REUTERS

«Puede introducir errores, llamados frecuentemente alucinaciones», afirma el experto de la UOC Josep Curto, que aconseja tener de mano otras fuentes fiables

03 ene 2024 . Actualizado a las 11:15 h.

El futuro llegará más tarde de lo que los gurús pensaban. ChatGPT, la herramienta de inteligencia artificial (IA) estrella del 2023, comienza a dejar claro cuáles son los principales inconvenientes de su uso. Aunque utilizada por millones de españoles, un informe de la Organización de Consumidores y Usuarios (OCU) destaca que solo un 11 % lo hacen con frecuencia. De forma diaria, ese porcentaje cae hasta el 3 %. ¿El motivo? Los internautas no se fían de la información que les ofrece, ya que existe una «falta de confianza en las respuestas generadas». 

Las causas son variadas y, además, justificadas. Así lo asegura de manera tajante Josep Curto, profesor de Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC), que admite que «en ningún caso debemos considerar que ChatGPT es infalible». «De hecho, por construcción, al ser un sistema generativo, puede introducir errores, llamados frecuentemente alucinaciones, en un claro caso de antropomorfismo», explica. 

Curto afirma que estas herramientas mejoran la productividad, aunque cree que debemos conocer sus límites: «Algunos de los errores más frecuentes son de profundo calado y pueden afectar significativamente a las respuestas que proporciona». Entre ellos, describir de forma incorrecta hechos verificables, generar respuestas erróneas, responder a todo tipo de preguntas aunque no conozca la solución y, además, hacerlo de manera que parezca convincente. Los fallos aumentan cuando no se utiliza el inglés, o si se le pide que detalle el proceso que ha utilizado para generar cada resolución. También hay que dudar de sus razonamientos matemáticos. Otro riesgo de usar la herramienta es que puede proporcionar respuestas que no son éticas o que vienen influenciadas por sesgos humanos, técnicos o sistémicos. 

¿Y las actualizaciones?

El experto destaca que, aunque los creadores de estos grandes modelos de lenguaje actualicen sus sistemas para introducir mejoras y reducir las meteduras de pata, se antoja fundamental confirmar sus aseveraciones mediante otras fuentes fiables. «Es necesario tomar las respuestas de ChatGPT u otros sistemas como una fuente adicional que puede proporcionar información sesgada, incorrecta o incluso ficticia, y debemos comprobar la fiabilidad de los datos obtenidos», advierte Curto, que añade que si se mantiene el enfoque generativo de los sistemas de IA, los errores continuarán en el medio plazo.

«Para sacar el máximo partido de ChatGPT es recomendable conocer en detalle qué puede hacer esta herramienta, aprender cómo crear mejores preguntas (lo que se conoce como prompt engineering), identificar una colección de fuentes fidedignas suficientemente amplia para validar las respuestas y desarrollar un espíritu crítico para seguir aprendiendo», indica el profesor de la UOC, que pone encima de la mesa otras alternativas, como Microsoft Bing, Perplexity, Google Bard, Claude y Jasper. Todas ellas, herramientas que, a pesar de su espectacular apariencia, esconden una realidad: es mejor no fiarse al 100 % de ellas si no se quiere caer en errores de bulto.