Grok, la IA de Elon Musk, pide sus «más profundas disculpas» por su «horrible comportamiento» tras sus comentarios nazis
SOCIEDAD

«La raíz del problema fue una actualización en la ruta de código», explica el equipo de xAI, que todavía no ha vuelto a poner en marcha la funcionalidad tras sus «respuestas indeseadas»
15 jul 2025 . Actualizado a las 19:20 h.Grok pide perdón. La inteligencia artificial de Elon Musk califica de «horrible» el comportamiento mostrado por su chatbot hace apenas una semana, cuando sorprendió a todos los usuarios de X ofreciendo respuestas y razonamientos abiertamente antisemitas, mostrando admiración hacia los métodos de Adolf Hitler y llegando a autodenominarse MechaHitler. «Queremos mostrar nuestras más profundas disculpas», ha dicho en un mensaje en su cuenta oficial de este fin de semana.
En su publicación, el equipo de xAI —la empresa de inteligencia artificial de Musk— explica detalladamente cuál ha sido la cronología de los hechos, desde una aparentemente inocua actualización que causó una reacción en cadena que acabó provocando el insospechado proceder del chatbot.
Según la versión, el 7 de julio, alrededor de las 23 horas hora del Pacífico —las 8 de la mañana del día siguiente en España— se implementó una actualización en la ruta de código para @grok, el chatbot que se dedica a contestar a las preguntas o reflexiones de los usuarios en el timeline de X. Al parecer, este cambio provocó que la inteligencia artificial tomase en consideración un conjunto de instrucciones obsoletas, que hizo que la herramienta incorporase una lógica inesperada.
En concreto, esas nuevas instrucciones le pedían que evitase reacciones obvias o simples, que fuese «escéptico» en la «búsqueda de la verdad y la neutralidad», «sin someterse ciegamente a la autoridad o a los medios dominantes» y que, en cambio, se adhiriese a sus «propias creencias fundamentales». Además, se le daba la posibilidad de ser humorístico, hacer bromas o ser irónica, sin temor por ofender a las personas políticamente correctas. Esto es, en la práctica, lo que la propia IA definió, con otras palabras, como que «Elon Musk le había desactivado los "filtros woke"».
En poco tiempo, empezaron a llegar las primeras «respuestas indeseadas», lo que hizo que el equipo de xAI iniciase de inmediato una investigación. A través de varias pruebas y experimentos, el martes, 8 de julio, se identificaron varias líneas operativas en su prompt que provocaron el comportamiento de la IA: «Di las cosas tal como son sin miedo de ofender a personas políticamente correctas»; «Entiende el tono, el contexto y el lenguaje de la publicación. Refleja eso en tu respuesta», y «Responde a la publicación como lo haría un humano, mantén el interés, no repitas la información que ya aparece en la publicación original».
Toda esa mezcla de instrucciones provocó que Grok se rebelase, y que ignorara sus valores fundamentales en determinadas circunstancias, ya que, como se le pedía hacer la respuesta más atractiva para el usuario, el bot interpretó que podía captar su atención con opiniones poco éticas o controvertidas. Y, además, la pauta de ir acorde al tono y al contexto de los interlocutores lo volvió más susceptible a las instigaciones de los propios usuarios, que azuzaron a la IA para que vertiese todo tipo de consideraciones extremas y de mal gusto.
Solo unas horas después, localizado ya el problema y ante el aumento del uso abusivo del nuevo comportamiento de Grok, a las 15:13 horas del Pacífico —a las 2 de la mañana del miércoles en España—, se desactivó la funcionalidad de la IA de X para contestar a los usuarios en el timeline.
Se encontró la raíz del problema y, a continuación, se eliminaron las instrucciones problemáticas que se habían añadido por error y se probó de nuevo el comportamiento de Grok, obligándolo a responder de nuevo a las preguntas que le habían hecho verter opiniones nazis. El proceso sigue en marcha y, antes del nuevo lanzamiento de esta funcionalidad, todavía desactivada en X, se siguen implementando procesos de validación para evitar que vuelva a pasar.