El año pasado, la Ley de Inteligencia Artificial de la UE (AI Act) entró oficialmente en vigor y, a mediados de 2025, ha prohibido los peores casos de manipulación de identidad basada en IA, además de exigir transparencia para el contenido generado por inteligencia artificial. Esto ocurrió en un momento crítico, ya que las estadísticas de deepfakes de 2024 mostraron que la mitad de todas las empresas han experimentado fraudes que involucran audio y video alterados con IA.
Sin embargo, la Ley de IA de la UE no está sola en su lucha contra el fraude de identidad con IA, ya que se están aprobando nuevas leyes contra los deepfakes en todo el mundo. En este artículo, exploraremos estas leyes: desde Estados Unidos hasta China, analizaremos las regulaciones más destacadas sobre IA y deepfakes en 2025. Al final, el CTO de Regula, Ihar Kliashchou, compartirá su opinión sobre lo que debe acompañar a la legislación para combatir eficazmente el fraude de identidad impulsado por IA.
Suscríbase para recibir un resumen quincenal del blog de Regula
La ley contra los deepfakes de Dinamarca
Una de las leyes más comentadas contra los deepfakes generados con IA proviene de Dinamarca: el gobierno ha enmendado su ley de derechos de autor para garantizar que toda persona “tenga derecho sobre su propio cuerpo, rasgos faciales y voz”. En efecto, Dinamarca está tratando la semejanza única de una persona como propiedad intelectual, un enfoque pionero, al menos en Europa. Con un amplio apoyo multipartidista, la propuesta fue presentada para consulta pública a mediados de 2025 y se espera que sea aprobada hacia finales del año.
Con esta enmienda, cualquier imitación realista generada por IA de una persona (rostro, voz o cuerpo) compartida sin su consentimiento constituirá una violación de la ley. Los ciudadanos daneses tendrán un derecho legal claro para exigir la eliminación de dicho contenido, y las plataformas que no lo retiren “enfrentarán severas multas”, según el ministro de Cultura de Dinamarca, Jakob Engel-Schmidt.
Más que una garantía de por vida
Cabe destacar que tanto los artistas como las personas comunes disfrutarán de una protección que se extiende 50 años después de su muerte frente a reproducciones no autorizadas generadas por IA. De esta manera, un ciudadano danés o su familia (tras su fallecimiento) que descubran que su rostro ha sido utilizado indebidamente en una estafa de deepfake podrán exigir su eliminación y posteriormente demandar a la plataforma por compensación. No obstante, la ley contempla excepciones para la parodia y la sátira, las cuales seguirán permitidas.
El gobierno danés también ha anunciado que utilizará su presidencia del Consejo de la UE a finales de 2025 para impulsar medidas similares en toda Europa. En otras palabras, el experimento nacional de Dinamarca podría convertirse en un modelo para las regulaciones sobre deepfakes en los próximos años.
La Ley TAKE IT DOWN de Estados Unidos
Hasta hace poco, Estados Unidos había abordado el tema de los deepfakes principalmente a través de leyes estatales y demandas civiles. Sin embargo, en mayo de 2025 se promulgó la Ley TAKE IT DOWN, marcando la primera ley federal del país que restringe directamente los deepfakes perjudiciales.
Un nombre con doble significado
Curiosamente, “TAKE IT DOWN” es un acrónimo de “Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act” (Herramientas para abordar la explotación conocida inmovilizando deepfakes tecnológicos en sitios web y redes).
La Ley TAKE IT DOWN se centra en las imágenes íntimas no consensuadas y en las suplantaciones de identidad: pornografía deepfake, imágenes sexuales o cualquier contenido generado por IA que retrate falsamente a una persona real de forma dañina. La legislación también tipifica como delito compartir conscientemente imágenes desnudas o sexuales de alguien sin su consentimiento, incluyendo las falsificaciones generadas por IA. Las sanciones incluyen multas económicas y penas de prisión de hasta tres años; el máximo se aplica en circunstancias agravantes, como reincidencia o distribución con intención de acosar.
Además, la ley no solo castiga a los perpetradores iniciales; también impone obligaciones a las plataformas para actuar cuando dicho contenido sea reportado. Según la nueva normativa, si alguien encuentra un deepfake explícito de sí mismo, las plataformas en línea ahora están obligadas por ley federal a eliminarlo dentro de las 48 horas posteriores a la denuncia. Para mayo de 2026, cualquier plataforma que aloje contenido de usuarios y que pueda contener imágenes íntimas deberá tener implementado un sistema claro de notificación y eliminación.
A agosto de 2025, también existen otras leyes en trámite destinadas a respaldar la Ley TAKE IT DOWN:
Ley DEFIANCE (Disrupt Explicit Forged Images and Nonconsensual Edits Act), reintroducida en mayo de 2025 tras una versión anterior que fue aprobada por el Senado en julio de 2024 pero expiró al cierre del 118.º Congreso. Esta otorgaría a las víctimas de deepfakes sexuales no consensuados una acción civil federal con daños legales de hasta 250.000 dólares.
Ley Protect Elections from Deceptive AI, presentada el 31 de marzo de 2025. Prohibiría la distribución consciente de material audiovisual generado por IA que sea materialmente engañoso sobre candidatos en elecciones federales.
- Ley NO FAKES, introducida el 9 de abril de 2025. Establecería como ilegal crear o distribuir una réplica generada por IA de la voz o la imagen de una persona sin su consentimiento, con excepciones limitadas para sátira, comentarios y reportajes.
Regulaciones de China sobre el etiquetado de contenido generado por IA
En marzo de 2025, las autoridades chinas introdujeron las Medidas para el Etiquetado de Contenido Sintético Generado por IA, un conjunto de normas que entrará en vigor el 1 de septiembre de 2025. La legislación amplía las regulaciones de 2022–2023 y establece un sistema de trazabilidad para todo el contenido multimedia generado mediante inteligencia artificial.
Según las medidas de 2025, ahora existen requisitos técnicos obligatorios: cualquier contenido generado o alterado por IA —de cualquier tipo (imagen, video, audio, texto o realidad virtual)— debe estar etiquetado como tal. Más específicamente, existen dos formas de etiquetado:
Visible: por ejemplo, una marca de agua en una imagen o un subtítulo en un video que indique que el contenido es sintético.
Invisible: por ejemplo, una firma digital o marca incrustada en los metadatos del archivo que pueda ser detectada por algoritmos incluso si se elimina la etiqueta visible.
De esta manera, si una aplicación china permite que un usuario intercambie su rostro con el de una celebridad en un video, ese video resultante debe incluir tanto un aviso visible como una marca de agua cifrada en su código. Asimismo, los sitios web de contenido ahora tienen la obligación de buscar estas marcas de agua: si una pieza de contenido no las contiene, la plataforma está obligada a solicitar al usuario que declare que fue generada por IA.
La ley china también prohíbe la alteración de marcas de agua de IA, prohibiendo efectivamente cualquier herramienta destinada a eliminar estos identificadores.
Si todo lo demás falla y un contenido sospechoso de haber sido generado por IA permanece sin marcar, será etiquetado para los usuarios como “contenido sintético sospechoso.”
Regulaciones de Francia sobre el etiquetado de contenido generado por IA (en progreso)
De manera similar al ejemplo anterior, la Asamblea Nacional Francesa presentó el Proyecto de Ley N.º 675 para exigir el etiquetado claro de imágenes generadas o alteradas por IA publicadas en redes sociales a finales de 2024. A comienzos de 2025, la propuesta ganó impulso: los usuarios que no etiqueten sus fotos o videos alterados con IA enfrentarían multas de hasta 3.750 euros, mientras que las plataformas que no cumplan con sus deberes de detección o señalización podrían recibir multas de hasta 50.000 euros por infracción. Sin embargo, aún no ha sido adoptada, ya que las conversaciones gubernamentales continúan.
Lo que sí se ha adoptado (aunque en 2024) es el nuevo Artículo 226-8-1, que modificó el Código Penal para tipificar como delito los deepfakes sexuales no consensuados. Este artículo castiga la difusión pública, por cualquier medio, de contenido sexual generado por algoritmos que reproduzcan la imagen o la voz de una persona sin su consentimiento. Las sanciones pueden incluir hasta 2 años de prisión y una multa de 60.000 euros, con penas más severas en ciertos contextos específicos.
Desarrollos en la Ley de Seguridad en Línea del Reino Unido (en progreso)
En el Reino Unido, 2025 ha sido el año de la implementación de la Ley de Seguridad en Línea de 2023 (Online Safety Act 2023), una normativa dirigida a combatir el contenido dañino en internet. Aunque la ley fue aprobada a finales de 2023, muchas de sus disposiciones clave entraron en vigor durante 2024 y 2025, y actualmente se están realizando algunos ajustes adicionales.
Más específicamente, el Reino Unido ha endurecido las leyes que regulan los deepfakes y el abuso de imágenes íntimas. Anteriormente, la Ley de Seguridad en Línea de 2023 ya había prohibido compartir o amenazar con compartir imágenes íntimas generadas con deepfakes sin consentimiento, pero no contemplaba la creación de dicho contenido. Las enmiendas propuestas para 2025, sin embargo, apuntan directamente a los creadores: fabricar intencionalmente imágenes sexuales explícitas con deepfakes sin consentimiento, y con la intención de causar alarma, angustia, humillación o con fines de gratificación sexual, sería penalizado con hasta dos años de prisión.
Nuevas normas de verificación de edad para sitios de contenido adulto
Desde el 25 de julio de 2025, los sitios dedicados a contenido para adultos están obligados a implementar métodos de verificación de edad altamente efectivos para impedir el acceso a menores de 18 años. En los primeros cinco días después de que la ley entró en vigor, se realizaron 5 millones de verificaciones adicionales por día, utilizando métodos como escaneo de documentos e inspección de tarjetas de crédito.
Se trata de un cambio cultural significativo respecto al simple clic de “Sí, tengo más de 18 años” en un sitio web, y se espera que tenga efectos secundarios: las nuevas reglas provocaron un aumento drástico en el uso de VPN, con un incremento en las descargas de más del 1.800%.
Una reflexión del Director de Tecnología de Regula: Las leyes no bastan para vencer el fraude con IA
La inteligencia artificial está impulsando una nueva era del fraude, una que no solo engaña a las máquinas, sino también a las personas. Hoy en día, es lo suficientemente convincente como para hacer que la gente entregue contraseñas, apruebe transferencias o comparta credenciales. Y como muchas de estas estafas cruzan fronteras, las leyes regionales rara vez funcionan, y las sanciones casi nunca alcanzan a los responsables. Las personas pierden sus ahorros, las empresas enfrentan pérdidas y las instituciones luchan por mantener la confianza.
Nuestras defensas tampoco siempre han avanzado al mismo ritmo. Las regulaciones que prohíben el uso malicioso de los deepfakes pueden parecer buenas sobre el papel, pero sin las herramientas para detectar y demostrar contenido sintético, carecen de fuerza real. ¿De qué servirían los límites de velocidad si no existieran radares o policías para hacerlos cumplir? La misma lógica aplica aquí.
La respuesta más efectiva requerirá algo más que legislación. Exige un enfoque universal: tecnologías de verificación más sólidas para detectar identidades falsas en los puntos críticos, combinadas con educación pública para ayudar a las personas a reconocer las señales de alerta. Porque cuando los deepfakes parecen reales, suenan reales y superan verificaciones básicas, lo único que separa a una persona del fraude es su capacidad de identificar las señales de peligro y actuar en consecuencia.
La tecnología puede detectar lo que los humanos no ven, pero los humanos aún deben estar preparados para reconocer lo que la tecnología no detecta. Una sin la otra simplemente no es suficiente.
Combatir los deepfakes con las soluciones de Regula
La ola de nuevas leyes contra los deepfakes en 2025 es una señal de que los gobiernos esperan medidas más firmes contra el fraude de identidad. Desde el punto de vista tecnológico, se observa un fuerte impulso hacia soluciones avanzadas con prueba de vida, capaces de detectar la mayoría de los deepfakes.
Un ejemplo es Regula Face SDK, una solución biométrica multiplataforma que puede realizar:
Reconocimiento facial avanzado con prueba de vida: el SDK utiliza algoritmos precisos de reconocimiento facial con prueba de vida activa para verificar a los usuarios en tiempo real y evitar suplantaciones mediante fotos o videos.
Evaluación de atributos faciales: analiza características clave del rostro, como edad, expresión y accesorios, para mejorar la precisión y la seguridad durante la verificación de identidad.
Control de fuente de señal: el SDK evita la manipulación del origen de la señal, reduciendo la eficacia de los ataques de inyección de deepfakes.
Adaptabilidad a diversas condiciones de iluminación: funciona eficazmente en casi cualquier entorno lumínico.
Comprobación 1:1 de los rostros: el SDK compara la imagen facial en vivo del usuario con la de su documento de identidad o con una entrada en la base de datos, verificando la identidad de manera uno a uno.
Reconocimiento facial 1:N: analiza y compara los datos faciales del usuario frente a una base de datos completa, identificándolo entre múltiples registros al mismo tiempo.
¿Tiene alguna pregunta? No dude en contactarnos, y le contaremos más sobre todo lo que Regula Face SDK puede ofrecerle.






