
Robo de identidad, deepfake, generación de imágenes sexuales de una persona sin su consentimiento... Los expertos recomiendan leer los términos de las plataformas igual que leemos los prospectos de los medicamentos
04 ago 2025 . Actualizado a las 05:00 h.El último gran hype fue el de convertir los álbumes personales en imágenes del estilo Ghibli, lo que desató la ira de su director, Hayao Miyazaki. Pero ha habido más trends: convertirse en un personaje del universo Simpson, o de Pixar. Incluso volverse un muñeco al más puro estilo Barbie. Miles de personas han cargado en las herramientas de IA generativa sus fotografías y sus recuerdos con familia y con amigos. La cuestión es: una vez usadas por el algoritmo, ¿quién tiene los derechos? O lo que es lo mismo: ¿quién puede utilizar esa foto?
«El ciudadano medio no es consciente de las consecuencias de cada una de las acciones que envuelven el uso de la inteligencia artificial». Lo dice Eduard Blasi, profesor colaborador en la Universitat Oberta de Catalunya (UOC) y abogado digital en Data Guardians. El problema es que la gran mayoría de las personas que utilizan estas herramientas no son nativas digitales, y además a nadie le han enseñado como usarlas correctamente, «con lo cual somos víctimas de la brecha digital que existe de forma más evidente en el uso de la inteligencia artificial».
Lo cierto es que en términos generales, la expectativa e privacidad y de confianza es alta, primero porque da la sensación de estar usando un entorno cerrado (el propio dispositivo) y segundo porque hay personas en el entorno cercano que también usan esta tecnología. Y no tiene por qué ser así. Es más, hace unas semanas, Sam Altman, fundador de OpenAI, alertaba de que no hay confidencialidad legal para aquellos que le proporcionan a ChatGPT datos tan íntimos como los que tienen que ver con la salud mental.
Es más, la mayoría de los usuarios no configuran los parámetros de privacidad y buena parte de las aplicaciones tienen configurado por defecto alimentar el algoritmo con nuestra información. Si a eso se suma que no se establecen ciertos parámetros de custodia de información, el tratamiento de los datos no encaja: «Es habitual utilizar a lo mejor una inteligencia artificial como un abogado y puede haber algunos problemas», recalca Blasi.
Hay aplicaciones además que permiten distintos usos de los datos que se ceden, con lo que se abre el camino a los deepfakes e incluso hay herramientas que permiten generar imágenes de tipo sexual de personas sin su consentimiento. «El auge de la IA nos lleva a sombras, a malos usos, y existen desarrollos de aplicaciones que son un poco más delicados, incluso peligrosos», explica el divulgador tecnológico.
«Los riesgos que plantea esta tecnología no son hipotéticos ni lejanos: ya están aquí, y afectan tanto a empresas como a personas corrientes. Uno de los más graves es el robo de identidad: con solo unas cuantas imágenes públicas, una foto de perfil o un vídeo en redes, una IA puede generar un vídeo hiperrealista en el que tú pareces hablar, mirar a cámara o decir cosas que jamás has dicho», explica Antonio Pita, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC.
Y ese ni siquiera es el mayor riesgo. «En muchos casos, la víctima no llega ni a saber que su imagen ha sido utilizada hasta que el daño ya está hecho. Y todo esto afecta no solo a grandes figuras, sino también a personas corrientes que, sin saberlo, pueden ver su imagen usada en contextos falsos, dañando su reputación y confianza», advierte. «Literalmente, alguien puede ser tú en vídeo sin que tú lo sepas».
La Unión Europea, a través de la AI Act, ha ido poniendo coto al uso que se hace la inteligencia artificial y también a cómo y con qué datos se entrenan las máquinas. En Europa sería imposible la propuesta de Meta de alimentar sus algoritmos con información almacenada en los dispositivos aunque no se haya compartido en redes. «En la UE tenemos cierta ventaja en cuanto a protecciones y garantías para los ciudadanos, y vemos que muchas empresas adaptan su tecnología para el marco europeo, también la expectativa de tratamiento», dice Blasi.
Por ejemplo, hace unas semanas Meta lanzó un comunicado en el que anunciaba que iba a alimentar su inteligencia artificial con los datos que habían hecho públicos los usuarios desde el año 2020, es decir, con efecto retroactivo. En Europa era posible oponerse a ese uso de sus datos a través de un formulario (por cierto no muy intuitivo) pero no en otras zonas del mundo. En el canal de divulgación de Eduard Blasi «bastantes personas de Latinoamérica y otros países me dijeron no tenían la posibilidad de oponerse y efectivamente Meta no lo contemplaba porque no era una exigencia legal allí».
A finales de mayo esos datos comenzaron a alimentar el algoritmo, también los de los ciudadanos europeos que no se habían opuesto. Y aunque ahora reclamen a Meta que no use sus datos, solo tendrán el control de su información a partir de la fecha en la que informen a la empresa: los datos desde 2020 hasta ese momento ya han pasado a formar parte de su inteligencia artificial y no se pueden extraer del algoritmo.
Hay una clara diferencia entre el enfoque europeo y el estadounidense, donde predomina un modelo más flexible, basado en la autorregulación empresarial y el principio del fair use, o el chino, que adopta un enfoque mucho más centralizado y orientado al control estatal, y que «permite el uso masivo de datos, incluidos los biométricos, por parte del Estado y grandes empresas tecnológicas, con una protección más débil de los derechos individuales frente al interés público o la seguridad nacional», apunta Blasi.
El verdadero riesgo está en lo que pueden hacer otros usuarios con esas fotos y vídeos compartidos. La única solución es no usar las plataformas, que lleva al aislamiento en una sociedad donde la vida digital está más que instaurada. Europa parece tolerar la doctrina del pay or ok, es decir, pagar para evitar que se utilicen los datos. «Todavía está viéndose cómo se implementa, porque no es una solución al problema que tenemos», dice Blasi.
El divulgador señala que el consentimiento penalizado es contrario a la norma, debería ser incentivado. «Dónde está la línea es delicado, y pagar por tener más privacidad probablemente no cumpla del todo con cuestiones de privacidad».
Así que la solución es que los usuarios tomen medidas proactivas. «Igual que leemos el prospecto de un medicamento, deberíamos empezar a mirar lo que hay detrás de las herramientas que más usamos o en las que vertemos datos más sensibles», dice Blasi.
Lógicamente, es complicado buscar la información al detalle en todas y cada una de las páginas o plataformas a las que accede un usuario, pero es posible elegir las cinco herramientas que más utilizan a lo largo de la semana. «Estas cinco serían donde yo recomendaría cien por cien mirar el detalle».