Deepfakes e identidad digital: la ley de Dinamarca que protege el rostro, la voz y el cuerpo
El avance acelerado de la inteligencia artificial generativa ha introducido desafíos jurídicos inéditos en materia de protección de la identidad personal. La posibilidad de replicar digitalmente el rostro, la voz o el cuerpo de una persona mediante sistemas de inteligencia artificial —conocidos comúnmente como deepfakes— plantea interrogantes sobre la suficiencia de los marcos jurídicos tradicionales para proteger la dignidad, la reputación y la seguridad de los individuos.
Ante este escenario, Dinamarca ha adoptado una respuesta legislativa innovadora que podría marcar un precedente relevante para el derecho comparado: reconocer ciertos elementos de la identidad personal como objeto de protección jurídica similar a la propiedad intelectual.
El contexto: el crecimiento de los deepfakes y sus riesgos
Los deepfakes han dejado de ser una curiosidad tecnológica para convertirse en una herramienta utilizada en diversos tipos de fraude, manipulación informativa y ataques reputacionales.
Según el Q2 2025 Deepfake Threat Intelligence Report de la empresa especializada en detección de deepfakes Resemble.ai, se documentaron 487 incidentes de deepfakes en el segundo trimestre de 2025, lo que representa un incremento del 41 % respecto al trimestre anterior y un crecimiento superior al 300 % en comparación con el mismo período del año previo. Las pérdidas económicas derivadas de fraudes asociados a estas tecnologías superan los 350 millones de dólares y la tendencia apunta a una rápida expansión de este tipo de ataques (Resemble.ai, 2025). https://www.resemble.ai/q2-2025-ai-deepfake-security-report/
Los ejemplos recientes ilustran la magnitud del problema. En 2024, delincuentes utilizaron tecnología de clonación de voz basada en inteligencia artificial para suplantar al CEO de Ferrari, Benedetto Vigna, en una llamada dirigida a empleados de la compañía. El intento de fraude fue detectado cuando un directivo solicitó una verificación adicional que el impostor no pudo responder correctamente. (Ver: https://fortune.com/2024/07/27/ferrari-deepfake-attempt-scammer-security-question-ceo-benedetto-vigna-cybersecurity-ai/)
Ese mismo año, la firma internacional de ingeniería Arup fue víctima de uno de los fraudes con deepfake más relevantes documentados hasta la fecha. Un empleado del área financiera participó en una videollamada en la que aparentemente estaban presentes varios directivos de la empresa. En realidad, se trataba de recreaciones digitales generadas mediante inteligencia artificial. Siguiendo las instrucciones recibidas durante esa reunión, el empleado realizó transferencias que ascendieron aproximadamente a 25 millones de dólares a cuentas controladas por los estafadores. (Ver: https://www.weforum.org/stories/2025/02/deepfake-ai-cybercrime-arup/)
Estos casos reflejan un desafío jurídico central: las herramientas legales tradicionales no siempre ofrecen mecanismos adecuados para abordar situaciones en las que la identidad de una persona es replicada digitalmente sin que exista una sustracción material de bienes o información.
La respuesta legislativa de Dinamarca
Frente a este escenario, el gobierno danés anunció el 26 de junio de 2025 una reforma a su Ley de Derechos de Autor destinada a fortalecer la protección de la identidad personal frente al uso de inteligencia artificial.
La norma, que entró en vigor el 31 de marzo de 2026, convierte a Dinamarca en el primer país europeo en establecer expresamente un marco legal que protege el rostro, la voz y el cuerpo de una persona frente a usos no autorizados generados mediante inteligencia artificial.
La arquitectura de esta legislación se articula en torno a tres elementos principales.
- En primer lugar, se reconoce el derecho de cualquier persona a solicitar la eliminación inmediata de contenidos generados mediante inteligencia artificial que utilicen su imagen, voz o características corporales sin consentimiento.
- En segundo lugar, la norma introduce la posibilidad de reclamar compensación económica cuando el uso no autorizado de estos elementos genere un perjuicio, incluso sin necesidad de demostrar intencionalidad maliciosa o daño reputacional previo.
- En tercer lugar, se establece un régimen de responsabilidad para las plataformas digitales que alojan este tipo de contenidos. Empresas como Meta, X, TikTok o YouTube pueden enfrentar sanciones si no actúan diligentemente tras recibir una denuncia relacionada con el uso indebido de la identidad de una persona.
Un elemento particularmente relevante de esta regulación es que la protección se extiende durante cincuenta años después del fallecimiento del individuo afectado, permitiendo que los herederos ejerzan acciones para impedir el uso no autorizado de la imagen o la voz de la persona fallecida.
Libertad de expresión y equilibrio regulatorio
Uno de los aspectos más destacados de la legislación danesa es su intento de equilibrar la protección de la identidad personal con la preservación de la libertad de expresión.
La ley establece expresamente excepciones para la sátira, la parodia y la crítica política, siempre que estas no constituyan formas de desinformación capaces de inducir a error al público. Este enfoque busca evitar que la normativa se convierta en un instrumento de censura o limitación del debate público.
La regulación se dirige principalmente contra los usos engañosos, manipuladores o perjudiciales de la inteligencia artificial que impliquen la apropiación indebida de la identidad de una persona.
El papel de los usuarios en la economía de los datos biométricos
Mientras los legisladores intentan desarrollar respuestas regulatorias, los propios usuarios continúan participando activamente en la expansión de los sistemas de reconocimiento biométrico.
Las aplicaciones que generan retratos estilizados, versiones animadas o representaciones futuristas de los usuarios —a menudo presentadas como simples herramientas recreativas— implican en muchos casos la entrega voluntaria de datos biométricos faciales a empresas tecnológicas.
En este contexto, la identidad digital se convierte en un activo de alto valor económico y tecnológico, cuyo control y protección adquieren una importancia creciente.
Un posible modelo para el derecho comparado
La iniciativa danesa no se produce en aislamiento. Dinamarca ejerce actualmente la presidencia del Consejo de la Unión Europea y ha manifestado su intención de promover este enfoque regulatorio a nivel comunitario.
Otros países han adoptado medidas parciales para enfrentar los riesgos asociados a los deepfakes. Estados Unidos aprobó en 2025 el Take It Down Act, que criminaliza los deepfakes sexuales no consentidos y establece mecanismos de retirada rápida de este tipo de contenidos. El Reino Unido, por su parte, introdujo sanciones penales para la creación de deepfakes sexuales explícitos.
La Unión Europea también ha incorporado disposiciones relevantes en el Reglamento de Inteligencia Artificial (AI Act), que exige transparencia en el uso de contenidos generados mediante inteligencia artificial y prohíbe determinadas prácticas de manipulación de identidad.
No obstante, el modelo danés va un paso más allá al introducir una protección jurídica directa de los elementos fundamentales de la identidad humana.
La inteligencia artificial representa una transformación estructural comparable a otras revoluciones tecnológicas como la imprenta o Internet. Sin embargo, como ha ocurrido históricamente, el desarrollo tecnológico suele avanzar con mayor rapidez que la capacidad de los sistemas jurídicos para regularlo.
La posibilidad de clonar una voz, replicar un rostro o generar un video realista de una persona diciendo o haciendo algo que nunca ocurrió plantea desafíos profundos para la protección de la dignidad humana, la reputación y la confianza social.
En este contexto, la experiencia danesa introduce una idea fundamental: la identidad digital de una persona posee valor jurídico propio y merece una protección efectiva frente a usos no autorizados.
La pregunta que surge ahora para otros sistemas jurídicos es si este enfoque debería extenderse a otras jurisdicciones y convertirse en un estándar global para la protección de la identidad en la era de la inteligencia artificial.