Los chats de IA convencen más que los humanos porque le dicen a cada uno lo que quiere oír

José A. González MADRID / COLPISA

SOCIEDAD

Logo de OpenAI sobre el teclado de un ordenador
Logo de OpenAI sobre el teclado de un ordenador Dado Ruvic | REUTERS

Un experimento realizado en Estados Unidos detectó que ChatGPT o Gemini son un 64 % más persuasivos que las personas

19 may 2025 . Actualizado a las 18:01 h.

«Resume este texto» o «dame un plan detallado para visitar Roma en tres días» son algunos de las peticiones que los españoles suelen dirigir a ChatGPT, la herramienta de inteligencia artificial generativa desarrollada por OpenAI. Ahora, esta tecnología no solo es capaz de responder, sino también de convencer con sus argumentos. Esto implica tener el poder de influir en lo que las personas necesitan o desean.

Así lo refleja un estudio de la Escuela Politécnica Federal de Lausana (EPFL), realizado por Francesco Salvi y publicado en Nature Human Behaviour, que revela que los nuevos modelos de lenguaje extensos (LLM), como ChatGPT o Gemini de Google, son un 64 % más persuasivos que los humanos. Esta investigación se suma a la realizada a finales del año pasado por Yaqub Chaudhary y Jonnie Penn, de la Universidad de Cambridge, y que la propia OpenAI considera un «riesgo importante». 

En su trabajo, Salvi emparejó a 900 residentes de Estados Unidos con otro humano o con ChatGPT para debatir sobre diversos temas sociopolíticos. Los debates, realizados en un entorno controlado, revelaron que la herramienta de OpenAI resultó ser mucho más convincente que las personas. «Aunque estos datos se han obtenido en Estados Unidos, también son extrapolables a España», aclara Carlos Carrasco Farré, profesor de Sistemas de Información, IA y Ciencia de Datos en la Toulouse Business School (Francia), a SMC España.

La clave del éxito de la IA generativa, según el estudio, reside en la capacidad de personalizar los mensajes. Esto representa un riesgo importante para la manipulación en plataformas digitales, dada la facilidad con que los modelos LLM pueden adaptar sus mensajes a audiencias específicas. «Es inquietante su capacidad de persuasión, superando incluso a la de una persona real. Este hallazgo es especialmente relevante en un mundo donde los asistentes de IA se integran en plataformas de mensajería, redes sociales o servicios de atención al cliente», añade Carrasco Farré.

Microsegmentar el mensaje

El gran avance de la IA generativa radica en su capacidad para adaptar el mensaje a cada interlocutor. «Esto puede ser muy problemático. GPT-4, de OpenAI, puede personalizar su mensaje de forma instantánea y a gran escala, lo que le otorga una ventaja desproporcionada en contextos como campañas políticas, marketing personalizado o conversaciones en redes sociales», destaca Carrasco Farré.

A medida que las interacciones entre humanos y sistemas de IA se vuelven más comunes, estos modelos aprenden a conocer mejor a sus oponentes en los debates, generando argumentos a medida. Esto sugiere la necesidad de más investigación para mitigar los riesgos asociados con su uso en la persuasión. «Los resultados muestran que, si el modelo de IA tiene acceso a información personal de la persona con la que conversa, puede aprovechar ese conocimiento para mejorar sus habilidades persuasivas», explica David E. Losada, catedrático de Ciencia de la Computación e Inteligencia Artificial en el Centro Singular de Investigación en Tecnologías Inteligentes (CiTIUS), Universidad de Santiago de Compostela.

Por ello, los autores del estudio recomiendan que plataformas digitales y reguladores adopten medidas para identificar, supervisar y, si es necesario, limitar el uso de modelos de lenguaje en contextos persuasivos sensibles. Así como en su momento se reguló la publicidad dirigida, quizás ha llegado la hora de plantear acciones para controlar la persuasión algorítmica.

En su última System Card de GPT-4 —una especie de carta de recomendaciones—, OpenAI reconoce la capacidad de sus herramientas para influir en la opinión pública mediante generación automática de texto.

La compañía de Sam Altman concluye que sus modelos más recientes, en ciertos contextos, pueden ser más persuasivos que un ser humano. Sin embargo, también aclara que, en términos generales, no superan la capacidad humana en la mayoría de los casos.