Italia es el primer país de la UE en aprobar una ley que pena estas actividades
13 nov 2025 . Actualizado a las 12:11 h.Este septiembre, Italia se convirtió en el primer país de la Unión Europea en aprobar una ley integral para regular el uso de la inteligencia artificial (IA) en la que se incluyen penas de prisión para aquellos que le den un uso dañino, como imitar la apariencia, voz o gestos de personas reales a través de deepfakes, y establece un límite de edad para que los menores de 14 años no puedan acceder a esta herramienta sin el permiso de sus progenitores.
El pasado mes de agosto, el país mediterráneo dirigido por la conservadora Giorgia Meloni se vio envuelto en un escándalo después de que se destapara Phica (llamado así por un juego de palabras en italiano que, puestos a manipular, también manipula la palabra «vagina»): un foro de internet con más de 200.000 participantes (más o menos como la población de A Coruña) en el que se compartían fotos manipuladas de celebridades y políticas, incluida Meloni, en un contexto pornográfico.
Ahora, aquellos que difundan contenidos perjudiciales generados o manipulados con IA podrán encarar penas de entre uno a cinco años de prisión y se contemplan medidas más severas si se emplea para acciones delictivas como el fraude o el robo de identidad, entre otras cosas.
Tan real que lo parece
Es indudable que la inteligencia artificial ha traído consigo un gran número de avances para la sociedad: agiliza tareas, reduce costes, en ocasiones perfecciona la toma de decisiones, aumenta la productividad... Pero también ha traído una serie de comportamientos y usos nocivos: reduce la privacidad, aumenta los sesgos, sustituye empleos, genera dependencia tecnológica, aumenta la desinformación y, entre otras cosas, sirve como catalizador para indecentes como lo que pasó con el foro itálico. En este caso, el arma artificial empleada para delinquir fue el deepfake: un archivo de vídeo, imagen o audio manipulado mediante IA. Según un artículo de la Universidad en Internet (UNIR), «su contenido es tan real que confunde máquinas y a seres humanos por igual».
Los deepfakes se distinguen en tres tipos: de voz (mediante tecnología se clona la voz de alguien a partir de sus muestras), de vídeo (se reemplaza o se altera el cuerpo de una persona para ubicarla en situaciones que no han pasado nunca) y de imágenes (como el de vídeo, pero sin movimiento). Desde la explosión repentina de la inteligencia artificial, se han viralizado muchos casos de deepfakes en el mundo (el papa Francisco con un plumífero enorme, Ferdinand Marcos Jr, presidente de Filipinas, esnifando cocaína, la voz del cantante Quevedo haciendo covers de canciones de todo tipo, la voz de Cristiano Ronaldo deseándote un buen día, etc...). Algunos de estos ejemplos son anecdóticos y no van más allá de las intenciones de alguien jugando con una herramienta, pero otros, como las imágenes explícitas de Taylor Swift en X (antes Twitter) a principios del año pasado pusieron estos instrumentos en el ojo del huracán y trajo de nuevo, sobre la mesa, una pregunta: ¿qué hacemos con esto?
De nuevo, «esto» tiene dos caras. La UNIR, por un lado, expone que la tecnología deepfake trae innovaciones y usos beneficiosos como la mejora de las producciones audiovisuales, la recreación de voces e imágenes de artistas fallecidos (hace 13 años, el rapero Snoop Dogg sacudió el mundo después de cantar junto a un holograma del rapero 2Pac, asesinado en 1996, en el festival de Coachella) o, entre otras aplicaciones, la adaptación de piezas audiovisuales para la enseñanza de idiomas. No obstante, el lado oscuro es, de hecho, muy oscuro. Su realismo extremo provoca que se manipule la realidad de manera casi imperceptible (lo que adultera fácilmente a la opinión pública), genera desinformación y todo el mal que esta conlleva, provoca ciberacoso y puede dañar con creces la imagen e integridad de una persona.
Antes, alegar «pero ese no soy yo» podría comprobarse a simple vista y era refutable con pocos medios y retórica, pero la tecnología ha avanzado a un ritmo veloz y, en algunos casos logrados, la línea que separa lo real de lo fake es, literalmente, indistinguible. Era cuestión de tiempo que se tomaran cartas en el asunto.
Un total de 77 votos a favor, 2 abstenciones y 55 en contra han hecho posible la medida italiana. Ahora, se integra en el marco regulatorio de Italia y se alinea con la Ley IA europea para dar un paso adelante en el uso responsable de las tecnologías. Según el medio digital Notizie.it, las reacciones a esta medida fueron, para variar, sesgadas. Muchos encajaron con optimismo el futuro de la regulación, mientras que otros plantean dudas sobre las implicaciones reales que esto podría tener en el sector y, curiosamente, en la libertad de expresión.
España también avanza
España también va en camino de una regulación. En el pasado mes de marzo, el Congreso de Ministros remitió al Congreso el Proyecto de Ley Orgánica para la protección de los menores de edad en los entornos digitales, en el que tipificaba como delito los deepfakes y el grooming (el engaño a través de internet en el que un adulto se hace pasar por un niño para establecer con el tiempo un chantaje emocional con fines sexuales). Centrada en niños y adolescentes, busca garantizar su derecho a la intimidad, al honor y propia imagen, datos personales y el acceso a contenidos adecuados para su edad.
Fue una iniciativa pionera en Europa en el momento de la propuesta, ya que preveía reformar el Código Penal para poder penalizar los deepfakes de contenido sexual y el mencionado grooming. Está actualmente pendiente de tramitación y debe debatirse, modificarse y votarse. Mientras y, como siempre, las máquinas continúan cumpliendo órdenes.