Meta restringe a los menores el uso de sus chatbots

La Voz REDACCIÓN/ LA VOZ

SOCIEDAD

Capturas de pantalla de una conversación con Meta AI.
Capturas de pantalla de una conversación con Meta AI.

La compañía bloqueará contenidos sensibles y personajes sexualizados a los menores de edad y solo les permitirá interactuar con asistentes educativos y creativos

01 sep 2025 . Actualizado a las 13:18 h.

Con la llegada de septiembre, Meta ha puesto el foco en los menores de edad con el objetivo de reforzar su seguridad en sus plataformas. Tras detectar interacciones de adolescentes con los chatbots de Meta AI sobre temas relacionados con autolesiones, suicidio o trastornos alimenticios, la compañía ha decidido restringir ese tipo de usos y actualizar el entrenamiento de sus sistemas.

A partir de ahora, los menores de 18 años solo podrán acceder a asistentes virtuales que fomenten la educación y la creatividad. En caso de buscar los contenidos ya mencionados u otros temas sensibles, serán derivados a recursos especializados en lugar de continuar la conversación.

En este contexto de cambios y novedades, Stephanie Otway, portavoz de la empresa de Mark Zuckerberg, declaró al medio especializado TechCrunch que también se limitará el acceso a ciertos personajes digitales, con el fin de garantizar experiencias «apropiadas para su edad».

Según detalla la publicación, la medida afectará a algunos perfiles disponibles en Instagram y Facebook que incluyen figuras sexualizadas, como «madrastra» o «chica rusa». Cabe recordar que, hasta ahora, las políticas de Meta permitían mantener interacciones románticas con estos personajes.

Otway reconoció que esa permisividad fue un error, aunque señaló que, a medida que la comunidad crece y la tecnología evoluciona, la empresa aprende «cómo los jóvenes pueden interactuar con estas herramientas» y refuerza sus mecanismos de protección «en consecuencia».

Con todo, Meta ha aclarado que estos cambios en el entrenamiento de los chatbots son medidas de seguridad provisionales, y que planea endurecer sus políticas de seguridad de IA en el futuro, con actualizaciones más robustas y duraderas, para priorizar la seguridad de los menores y adolescentes con la IA.