No creas todo lo que ves ni todo lo que oigas

María Viñas Sanmartín
maría viñas REDACCIÓN / LA VOZ

SOCIEDAD

La tecnología «deepfake», al alcance de cualquiera, supone una amenaza real a la credibilidad y a la intimidad. El 90 % de las imágenes falsas generadas con inteligencia artificial son porno

24 sep 2023 . Actualizado a las 09:47 h.

En el año 2021, una marca de cerveza resucitó a Lola Flores —fallecida en 1996— en una campaña publicitaria que en cuestión de horas batió récords de difusión. Para poner a La Faraona a reivindicar acento, bien vivita y coleando, la compañía recurrió a la tecnología deepfake, técnica por entonces dominada casi en exclusiva por los bien conocedores de la entraña informática y que, básicamente, genera a través de algoritmos un montaje tan realista que pone en aprietos a quien, de un simple vistazo, debe decidir si lo que ve —o lo que oye— es verdad o mentira. La inteligencia artificial lleva años siendo capaz de escrutar los rasgos faciales de una persona y, con precisión de orfebre, colocar su rostro sobre un cuerpo ajeno. El amaño, más impecable a medida que el mecanismo va puliéndose, es imperceptible al ojo humano; tan creíbles son los resultados que fotos y vídeos falsos han pasado de ser carne de chiste a dar serios sustos y, con su generalización, a suponer una amenaza real a la credibilidad y la intimidad.

Cuatro años antes de que la agencia de publicidad contratada por la cervecera replicase virtualmente a la matriarca de los Flores un usuario anónimo subía a internet una recua de vídeos para adultos con las caras de actrices como Gal Gadot y Emma Watson, y cantantes como Katy Perry y Taylor Swift. A esta última el truco no la pilló desprevenida: acaba de librar una sonada batalla con Kanye West después de que el rapero se hubiese adueñado sin consentimiento de su imagen, desnuda, para meterla en su cama en uno de sus videoclips. Pero la inquietud no se instaló en el cuerpo —ni en la sociedad— hasta haber constatado que con el paso de los años estas herramientas se han hecho accesibles a cualquiera con acceso a conexión. En manos de la Fiscalía llevan desde el viernes una docena de denuncias por la manipulación de fotos de chicas de entre 11 y 17 años en Almendralejo (Badajoz). Los presuntos responsables de desnudarlas gráficamente son todos niños de entre 12 y 14.

Según la compañía de investigación holandesa Sensity AI, que se dedica a rastrear vídeos hiperrealistas falsos en internet, entre el 90 % y el 95 % de los deepfakes son pornografía sin permiso de quienes la protagonizan, y nueve de cada diez implican a mujeres. En su último informe —del año pasado—, cifra en más de 85.000 los montajes localizados. El número se duplica cada seis meses.

«Los deepfakes o ultrafalsos estaban hasta hace no mucho en manos de unos pocos, pero hoy acceder a este tipo de herramientas es sencillo, sobre todo para jóvenes y adolescentes, nativos digitales, y además gratuito, porque en la mayoría de aplicaciones no hay que registrarse o basta con un correo electrónico», confirma Juan Ignacio Rouyet, profesor especializado en Ética e Inteligencia Artificial de la Universidad Internacional de La Rioja (UNIR). La persecución de este material se complica debido a la opacidad de internet, reconoce. «Muchas veces no se sabe ni dónde están los servidores y no se puede actuar contra la fuente original».

En ese vasto universo que es la red hay incluso páginas específicas de vídeos porno deepfake, muchos con rostros de famosos superpuestos en torsos de actores de cine para adultos, pero también de gente anónima sobre cuerpos que no son los suyos. Son piezas exageradamente populares, con más de 134 millones de visitas, según Sensity AI y, aunque el contenido sexual —detonante del fenómeno— copa el mercado, el arte del engaño digital no se limita a la pornografía. La inteligencia artificial mal usada es fuente prolífica de bulos y noticias falsas con una lograda apariencia de autenticidad.

En el 2018, el cineasta Jordan Peele (Déjame salir) y el director ejecutivo del conglomerado de medios estadounidense BuzzFeed, Jordan Peretti, generaron un vídeo deepfake con el objetivo de advertir sobre la amenaza de la desinformación, concretamente en la esfera política. A través de herramientas gratuitas y con algo de ayuda de expertos en edición, superpusieron la voz de Peele sobre una grabación de Barack Obama. En las imágenes, Obama, además de insultar a Trump, decía: «Estamos entrando en una era en la que nuestros enemigos pueden hacer que parezca que alguien está diciendo algo, en cualquier momento, incluso si nunca lo ha dicho».

A mediados de marzo del 2022, apenas dos semanas después de la invasión rusa a Ucrania, el periódico Segodnya publicó un vídeo del presidente Zelenski pidiendo la rendición a sus tropas. Su tono de voz sonaba raro, pero el mensaje circuló rápidamente por las redes y los servicios de mensajería. Fue el propio mandatario ucraniano el que, con un nuevo vídeo, grabado con su móvil, desmontó las imágenes falsas minutos después de que el grupo de comunicación denunciase que había sido hackeado.

Claves para detectar que una imagen está modificada

j. v. l.

Hay ultrafalsificaciones capaces de engañar a cualquiera, pero las de las aplicaciones gratuitas en la mayoría de los casos se pueden desenmascarar si se presta la atención suficiente. El instituto LISA ha elaborado una lista con los puntos claves a observar.

Fallos. Las diferencias de expresión facial, una piel inusualmente lisa, los bordes de las imágenes borrosos o los movimientos entrecortados en los vídeos invitan a sospechar.

Parpadeo. A los programas de deepfake de momento les cuesta que los personajes parpadeen tan rápido como un humano real, con lo que una lentitud excesiva sirve como pista.

Cara y cuello. Normalmente las modificaciones se realizan superponiendo el rostro de una persona sobre el cuerpo de otra, con lo que conviene observar diferencias, por ejemplo de tono de piel, entre la cara y el resto.

Duración. A más duración del vídeo mayor esfuerzo para el algoritmo, con lo que un contenido corto e inverosímil la mayor parte de las veces suele estar enmascarando una falsificación.

Origen. Investigar un poco para ver quién fue el primero en publicar un vídeo o imagen fija y en dónde lo hizo también da pistas respecto a si ese contenido tiene visos de realidad o no.

Sonido. Cuando una persona habla como si estuviese cantando en playback se está evidenciando un fallo de los más habituales con estas tecnologías, que es la falta de sincronización entre la imagen y el sonido.

A cámara lenta. Reproducir un vídeo a baja velocidad habitualmente hace que afloren los posibles fallos como las modificaciones repentinas de la imagen o cambios en el fondo.

El interior de la boca. Si hay algo en lo que fallan especialmente los programas que realizan ultrafalsificaciones es en los detalles del interior de la boca al hablar, con lo fijarse en los dientes y la lengua resulta clave.

Las marcas de agua obligatorias auguran una solución parcial

La futura Ley de Inteligencia Artificial de la Unión Europea prevé la inclusión de recursos tecnológicos como las marcas de agua obligatorias para que el usuario sea consciente en todo momento de que está ante un contenido alterado digitalmente. Eso facilitaría la identificación de las imágenes falsas aunque tampoco se espera que acabe del todo con los abusos.