Kim Kardashian acusa a ChatGPT de hacerle suspender exámenes de Derecho: «Le gritaba: "Suspendí por tu culpa. ¿Por qué me has hecho esto?"»

P. V. LA VOZ

SOCIEDAD

Kim Kardashian se somete al detector de mentiras
Kim Kardashian se somete al detector de mentiras YOUTUBE: @VanityFair

La empresaria ha revelado su fallido uso de la inteligencia artificial para ayudarle en su carrera universitaria

05 nov 2025 . Actualizado a las 14:37 h.

Kim Kardashian ha sufrido en sus carnes uno de los mayores problemas de ChatGPT: su apariencia de fiabilidad. Ahora, a toro pasado, ya lo ve bien, porque la empresaria ha conseguido acabar con éxito su carrera de Derecho, pero el chatbot, que debería haber sido una herramienta útil para sus estudios, se convirtió, en realidad, en un gran escollo. «Me ha hecho suspender exámenes una y otra vez», ha revelado la ex de Kanye West al someterse al detector de mentiras de Vanity Fair.

La creadora de contenido descubrió por las malas que, aunque la inteligencia artificial generativa hila textos totalmente coherentes en sus discursos, sus respuestas y desarrollos están plagados de incorrecciones, falsedades o malas interpretaciones. «Siempre me ha dado respuestas incorrectas», ha lamentado.

Buscaba ayuda mandándole una foto a un ejercicio de un dilema legal que tenía para buscar la respuesta, pero descubrió con el tiempo que no eran correctas. «Me volvía loca y le gritaba, diciéndole: "Suspendí por tu culpa. ¿Por qué me has hecho esto?"», ha narrado la socialité sobre su relación con ChatGPT como respuesta a la pregunta de si tenía una relación de amistad con la IA. «Es más bien un amienemigo», ha dicho, utilizando el neologismo para referirse a esas personas de las que diríamos: «Para amigos así, quién necesita enemigos».

El caso es que su conversación con el chatbot, tras sus continuas falsedades que afectaban a sus estudios de Derecho, no se quedaba ahí. Kim pretendía hacer reflexionar a la IA. «Le decía: "¡He suspendido por tu culpa! ¿Cómo te hace sentir eso? Acudo a ti porque quiero saber la respuesta a estas preguntas"», ha contado. «Esta es la forma que tengo de enseñarte a seguir tus instintos, porque has sabido las respuestas todo el tiempo», le respondía ChatGPT. 

Finalmente, tras la insistencia de Teyana Taylor —quien le hacía las preguntas— a la hora de cuestionar su verdadera relación con la IA, Kim asumía que se trataba de una «amistad tóxica». «Me acerco a ella para que me ayude y ella me enseña una lección de vida, y después se convierte en mi terapeuta para explicarme por qué debo creer en mí misma tras darme la respuesta mal», ha reflexionado la empresaria. «Les hago captura de pantallas a las conversaciones y las envío a chats que tengo con otra gente para decirles: "¿Te puedes creer cómo me está hablando esta perra? Es una locura"», ha contado.

Las incorrecciones de la IA generativa están más que documentadas. Un reciente estudio elaborado por la BBC ha revelado que casi la mitad de las respuestas que dan en lo relativo a las noticias de actualidad tienen al menos un error grave. Además, un tercio de las contestaciones presentan serios problemas en las atribuciones y las fuentes, y un quinto incluyen directamente invenciones, alucinaciones o información desfasada.