Volver
';
Se disparan las ‘apps’ que usan los niños para desnudar a sus compañeras de cole

La inteligencia artificial al servicio del porno

Se disparan las ‘apps’ que usan los niños para desnudar a sus compañeras de cole

Mekakushi

«Desviste a la chica que tú quieras». Con esta frase se publicitan 'apps' y páginas web en Internet. Ofrecen generar imágenes pornográficas superponiendo el rostro que se desee. Chavales de apenas 12 años las están usando para crear falsas imágenes de sus compañeras de clase o barrio. Detrás hay un negocio millonario sin apenas control. Te lo contamos...

Viernes, 16 de Febrero 2024

Tiempo de lectura: 11 min

Las imágenes son demoledoras porque no hay modo de saber si son reales o no. Yo lo veo, porque conozco su cuerpo, pero no se nota que sea un montaje». Miriam llegó de un viaje y su hija, asustada, le mostró unas fotos que estaban circulando en grupos de WhatsApp de chicos de su localidad, Almendralejo (Extremadura). Habían usado la inteligencia artificial (IA) para crear falsas imágenes suyas donde aparecía desnuda. No era la única. Se difundieron, según la Policía, imágenes de alumnas de cuatro centros escolares.

El caso está ahora en los tribunales, con más de veinte chicas afectadas y otros tantos menores investigados. Y no es algo aislado: en las mismas fechas, al menos otros dos casos –en Ayamonte (Huelva) y Alcalá de Henares (Madrid)– acabaron en los juzgados. En septiembre pasado –el mismo mes en que los tres casos salieron a la luz–, 24 millones de personas en todo el mundo visitaron páginas web que generan falsos desnudos a partir de la foto facilitada por el usuario, según la firma de análisis de tráfico online Similarweb. Hay casos en Estados Unidos, Reino Unido (con un gran debate sobre cómo legislar para evitarlo) o Corea.

Estas páginas aseguran que cuentan con filtros para impedir que se manipulen imágenes de menores. Pero no ocurre así en la práctica

La pornografía deepfake –es decir, el uso de IA para crear imágenes explícitas superponiendo rostros de otras personas– lleva ya algunos años generando problemas. Taylor Swift o Rosalía han sido víctimas sonadas. Pero la tecnología se ha democratizado en el peor sentido. Si hace solo tres años crear estas imágenes exigía notables conocimientos técnicos, hoy basta con descargar una app o visitar una web. Y los chavales ya lo saben. Según Ofcom, organismo gubernamental británico encargado de regular las telecomunicaciones, un 79 por ciento de los menores entre 13 y 17 años usa herramientas de IA generativa.

Daniel Méndez

Madre de una víctima

Miriam al Adib: «Le dije a mi hija que la ayudaría y que los chicos pagarían por lo que habían hecho»

De la noche a la mañana, Miriam Al Adib se convirtió en ‘madre de una de las afectadas’. Cuando su hija le contó que estaban circulando deepnudes de ella y otras chicas de Almendralejo (Extremadura) en grupos de WhatsApp, lo tuvo claro: había que hacer ruido, para que pararan y para que la sociedad tomara conciencia de la magnitud del problema. Miriam es ginecóloga y experta en educación sexual, con 147.000 seguidores en Instagram. Habían tocado hueso: sabía lo que tenía que hacer… y lo hizo. Esta madre coraje contra la pornografía virtual ha estado ya en el Parlamento Europeo y no piensa parar.

Por supuesto, en su mayoría, el uso es lícito. Pero críos de 12 años –hay más de uno en los casos mencionados– las usan ya para crear falsas imágenes de sus compañeras de clase o del barrio. En octubre, la Policía Nacional detuvo en Barcelona a un menor de 14 años por producción, posesión y distribución de pornografía infantil. Fotografiaba a otros menores en pantalón corto o bañador desde su ventana y convertía esas tomas en imágenes sexuales que distribuía luego por redes. Se ofrecía también para transformar fotos a la carta. No es una mera gamberrada: hay todo un mercado negro para estos contenidos.

«Desviste a la chica que tú quieras», proclaman los eslóganes de apps y webs en una sencilla búsqueda en Internet. Según datos de Graphika, firma especializada en el análisis de las redes sociales, el número de enlaces publicitarios de este tipo de aplicaciones se multiplicó por 2400 el año pasado. «La creación y difusión de imágenes íntimas sintéticas no consensuadas ha pasado de ser un servicio disponible en foros muy especializados a convertirse en un negocio automatizado a gran escala», explica Santiago Lakatos, analista de Graphika y autor del informe.

Por 'sintéticas' se refiere a imágenes creadas por IA. Estas plataformas funcionan a través de webs, apps o canales de Telegram. «La mayoría opera con un modelo freemium –dice–: ofrecen un pequeño número de imágenes gratuitas y, si quieres más, hay que pagar. Los usuarios deben comprar créditos adicionales para acceder a prestaciones como mayor resolución, selección de la edad o determinados rasgos corporales…». ¿El precio? La app que usaron los menores de Almendralejo permite subir una foto gratis… cuya versión editada aparece borrosa junto a un mensaje que reza «ahh… Tienes cero monedas. Se ha aplicado un filtro». Puedes ganar monedas invitando a amigos (una por cada uno que se registre). O comprarlas: 4 monedas –y otras tantas fotos– a dos euros; 15 a seis… Hasta un máximo de 500 euros. Otras ofrecen tarifa plana de un mes por 9,99 dólares. Más o menos el mismo precio de otras páginas que 'nudifican'. El pago se realiza vía tarjeta, PayPal o criptomonedas. Para evitar ser bloqueadas por estas plataformas, que en muchos casos prohíben la venta de pornografía no consentida, las webs de deepfake venden también créditos a través de plataformas de crowdfunding.

En algunos casos, los menos, la compañía dueña de las páginas web resulta fácilmente localizable. Pero suelen ser esquivas. No hay direcciones ni nombres. En una figura una dirección en Reikiavik… Pero una búsqueda on-line arroja una sorpresa: una empresa islandesa la ofrece como 'sede virtual de tu compañía', por 96 dólares al mes. XLSemanal ha contactado a los responsables de la app usada en Almendralejo. Responde un supuesto CEO: de su nombre no hay apenas rastro en Internet. Aparece solo cuatro veces, siempre en relación con esta página de desnudos virtuales, y su foto 'huele' a producto de la IA. En su web aparece una dirección en Estonia y el nombre de una empresa… dedicada a la importación y exportación. No hay más datos, ni ellos los facilitan, más allá de que son un grupo de ingenieros de diez países. En páginas especializadas en revelar quién está detrás de una determinada web, tampoco hay información sobre el dueño del dominio que utilizan, aunque el servidor de correo que usan es ruso.

El número de enlaces publicitarios de este tipo de aplicaciones se multiplicó por 2400 el año pasado. Se ha convertido en un negocio a gran escala

Supuestamente estas páginas –que descargan toda la responsabilidad sobre el usuario– cuentan con filtros para detectar si se intenta subir imágenes de menores e impedirlo. Pero XLSemanal ha hecho la prueba con la imagen de una menor –borrando inmediatamente el resultado– y todas las plataformas han procedido a desnudarla sin pegas. Eso sí: sin pagar (como en nuestro caso), la imagen siempre ha aparecido borrosa o parcialmente cubierta. ¿Cómo es posible que se pueda crear pornografía de menores a partir de rostros reales? ¿Es legal?

«El uso de la app con las imágenes que tú quieras, mientras no salga de tu disco duro, es impune penalmente. Todo lo que sea un uso privado no constituye delito, salvo la pornografía infantil. La generación de pornografía infantil, aunque sea virtual, también es delito», responde Carlos Sánchez Almeida, abogado experto en derecho digital. Y añade un matiz: «Si el resultado es indistinguible de la realidad». Hay cómics manga de contenido durísimo, por ejemplo: pero es evidente que es un dibujo. Ahí no hay delito. Pero, ¿y si también el rostro se genera por inteligencia artificial? También es delito, aunque no haya un menor real detrás. Así lo explicita la circular de la Fiscal General del Estado, Consuelo Madrigal, de 2015: «Se protege en estos casos como bien jurídico supraindividual la dignidad e indemnidad sexual de la infancia en general», aunque no se trate de un menor concreto, matiza. La mera posesión de una imagen de este tipo es un delito. Y para calibrar su gravedad, se valora el número de imágenes, el tiempo que se las ha tenido o cómo se las adquirió.

alternative text

La tenencia de pornografía infantil conlleva un año de prisión, pero sube hasta los nueve si hay distribución. Si el investigado es menor, se deriva a la Fiscalía de Menores y no hay penas de cárcel. ¿Y si la víctima es adulta? «Si el material se queda en tu disco duro, nada –insiste Sánchez Almeida–. Si se difunde y supone una grave humillación, sería un delito contra la integridad moral».

«Todo lo que es IA se va a regular en el Código Penal. Habrá que cuidar cómo se hace porque, según cómo se haga, nos cargamos la creatividad artística», añade. El Código Penal seguirá, en todo caso, lo que se decida en Europa, donde se está negociando desde hace semanas el que será el primer Reglamento de Inteligencia Artificial. También se está actualizando la legislación para, entre otras cosas, dar cabida a los nuevos retos tecnológicos. Se elevan las penas (hasta un mínimo de 3 años por producción y de 2 por posesión de pornografía infantil, incluso la creada por IA) y unifica criterios en los países de la UE. También pone deberes a las compañías tecnológicas, que deben detectar, informar y eliminar este material ilegal. No sin polémica: empresas y ONG de derechos digitales hablan de ‘chat control’ e invasión de la privacidad.

«Hoy es infinitamente más fácil crear este tipo de apps. Hace dos años no existía la opción, no al menos para la masa. Para hacer un deepfake, necesitabas máquinas potentes, invertir mucho tiempo… Desde que salió Stable Diffusion –un modelo de aprendizaje automático para crear imágenes–, cambió todo», explica Marc Almeida, programador que ha creado distintas IA generativas. Una vez, por probar, se puso a trastear con modelos de entrenamiento de IA para crear estos deepnudes… y en 20 minutos ya tenía resultados. «Hoy puedes hacer clonación de voces, deepfake en tiempo real… Pueden pasar cosas jodidas. Cualquiera puede usar la IA sin grandes equipos en su casa. ¿Estamos preparados? No lo sé. Es un cambio de era. Y ahora se están generando los estándares. Es extremadamente importante reflexionar sobre todas sus derivadas ahora mismo». En ello estamos… o deberíamos».

MÁS DE XLSEMANAL