Amnistía Internacional alerta que el algoritmo de TikTok expone a jóvenes franceses a contenidos que fomentan la depresión y el suicidio

Redacción / La Voz

SOCIEDAD

Javier Zayaz.
Javier Zayaz. iStock

La investigación remarca la falta de medias de la plataforma para hacer frente a estos riesgos sistemáticos que tanto afectan a la infancia y juventud

21 oct 2025 . Actualizado a las 14:04 h.

Una investigación llevada a cabo por Amnistía Internacional ha llegado a la conclusión de que el «para ti» de Tik Tok (los vídeos personalizados que se generan automáticamente basándose en tus intereses y la interacción dentro de la plataforma) empuja a niños y jóvenes franceses interesados en salud mental a caer en un bucle de contenidos que fomentan la depresión, las autolesiones e incluso el suicidio. Este informe, llamado Dragged into the Rabbit Hole (en castellano Arrastrado a la Madriguera del Conejo) avisa sobre la falta de medidas por parte de Tik Tok para hacer frente a los riesgos que genera su sistema y que tanto afectan a la infancia y juventud. 

La investigación mostró «lo rápido que los y las adolescentes que se interesan por temas relacionados con la salud mental pueden verse arrastrados a espirales de contenidos tóxicos y caer en ellas. Tan solo tres o cuatro horas de interacción en el `para ti´ y las cuentas de pruebas de los adolescentes recibieron recomendaciones de vídeos en los que se idealizaba el suicidio o se mostraban jóvenes manifestando su intención de quitarse la vida», explica Lisa Dittmer, investigadora sobre Derechos Digitales de Niños, Niñas y Jóvenes de Amnistía Internacional en el artículo que publicó la propia organización el pasado lunes. 

Para llegar a esta conclusión, un equipo de Amnistía Internacional configuró las cuentas de dos chicas y un chico adolescentes, registradas con usuarios de 13 años en Francia para comprobar, de primera mano, la amplificación algorítmica de contenidos en el «para ti». A los cinco minutos de empezar a navegar y sin marcar ninguna preferencia en concreto, las cuentas comenzaron a recibir contenidos sobre vídeos que expresaban pensamientos suicidas. Además de este, se realizaron otras pruebas en colaboración con el Instituto de Transparencia Algorítmica a través de cuentas automatizadas, de nuevo en jóvenes de 13 años en Francia, para concluir que el sistema de recomendación de Tik Tok duplicaba la proporción de contenido «depresivo» recomendado cuando en el historial de visualizaciones se figuraban diferentes niveles en este tipo de vídeos. 

Estas pruebas se llevaron a cabo en Francia ya que en este país la plataforma está regulada por el Reglamento de Servicios Digitales de la Unión Europea que, desde el 2023, exige a las plataformas que identifiquen y mitiguen los riesgos sistémicos para los derechos de la infancia. En la actualidad, los legisladores franceses están debatiendo las deficiencias en la regulación de las redes y esta investigación de Amnistía Internacional se suma a sus anteriores y demuestran, una vez más, que Tik Tok no aborda los riesgos asociados a su modelo de negocio. 

A pesar de que Tik Tok dijera que iba a paliar los riesgos en el 2024, la empresa continúa exponiendo a sus usuarios vulnerables a contenidos que ponen a la orden del día las autolesiones y la desesperanza. Testimonios de jóvenes depresivos y de padres afectados ponen en relieve los riesgos y daños que el modelo de Tik Tok representa para la salud mental para una juventud «que ya vive situaciones complicadas». Sin embargo, la compañía china sigue de brazos cruzados.

Amnistía Internacional resalta que «la empresa no está cumpliendo con su responsabilidad de respetar los derechos humanos de acuerdo con los Principios rectores de la ONU, ni está cumpliendo sus obligaciones en virtud del Reglamento de Servicios Digitales». Desde la organización, subrayan la necesidad de una normativa más firme y unas medidas más estrictas de rendición de cuentas por parte de Tik Tok para proteger a la infancia y a los usuarios vulnerables. Por otro lado, la oenegé admite que ha remitido a la empresa sus conclusiones principales y confiesan que, a día de hoy, no han obtenido respuesta.