¿Cómo se protegen los datos en la era de la IA?
- María José Clutet
- 22 jul
- 3 Min. de lectura
En las últimas semanas, tres noticias encendieron el debate sobre uno de los dilemas más urgentes de nuestro tiempo: el tratamiento de los datos personales en el desarrollo de inteligencia artificial. Desde las condiciones opacas de plataformas masivas como CapCut, hasta el avance normativo en Dinamarca y las advertencias de músicos europeos sobre la implementación diluida de la Ley de IA en la Unión Europea, emergen preguntas clave sobre gobernanza, derechos y transparencia. ¿Estamos construyendo tecnologías que nos protegen?

El caso CapCut, la legislación danesa y el reclamo de los músicos europeos evidencian un dilema clave sobre los datos personales. Mientras se define el camino regulatorio a nivel global, las decisiones que tomen hoy las plataformas marcarán el rumbo ético, político y económico de la inteligencia artificial en los próximos años.
1. CapCut y la renuncia a la privacidad.
El 11 de junio, la plataforma de edición de video CapCut—propiedad de ByteDance, la misma empresa detrás de TikTok—actualizó sus términos y condiciones para incluir una cláusula alarmante: los usuarios ceden sus contenidos para ser utilizados por la plataforma mediante una licencia global.
Incluso esto implica que fotos, videos, audios o textos subidos a la plataforma podrían alimentar algoritmos sin consentimiento explícito y sin posibilidad de exclusión individual. El caso despertó polémica por la falta de transparencia y por la forma en que se presenta esa cesión de derechos en documentos extensos, difíciles de leer, y en entornos donde muchos usuarios son menores de edad o creadores que desconocen los riesgos legales y éticos de esa cesión.
El problema de fondo no es nuevo: ¿Cómo regular las relaciones entre usuarios, plataformas y tecnologías cuando los datos personales se convierten en materia prima?
2. Dinamarca legisla contra los deepfakes
En el otro extremo del mapa—y del enfoque—Dinamarca acaba de lanzar la primera ley en el mundo orientada a proteger a los ciudadanos del robo digital de identidad mediante inteligencia artificial.
El proyecto establece que cualquier persona tiene derechos exclusivos sobre su rostro, voz y cuerpo, lo que convierte en una infracción legal la utilización no autorizada de estos elementos en producciones generadas por Inteligencia Artificial.
Esto incluye no solo imágenes o grabaciones de voz, sino también gestos, movimientos corporales y estilos de interpretación. La ley contempla excepciones para usos paródicos, satíricos o educativos, con el objetivo de no afectar la libertad de expresión y creación artística.
Además, la propuesta prevé que las personas afectadas puedan: solicitar la eliminación inmediata de los contenidos no autorizados, reclamar una compensación económica por el uso indebido y responsabilizar a plataformas digitales que no actúen tras recibir denuncias formales.
En cierto sentido, la ley busca ampliar el concepto de propiedad intelectual al ámbito del cuerpo humano, algo inédito hasta el momento en Europa. Cabe destacar que Dinamarca planea promover una iniciativa similar en el resto de Europa cuando asuma la presidencia del Consejo de la UE en 2026, buscando crear un marco legal continental contra los abusos de la Inteligencia Artificial.
3. La presión de los músicos a la UE
En paralelo, en Bruselas, una coalición de más de 30 artistas europeos—entre ellos Álex Ubago y Justyna Steczkowska—alertó sobre un riesgo clave: que la implementación de la Ley de Inteligencia Artificial de la UE (Reglamento 2024/1689) pierda fuerza en su artículo más importante para el sector creativo: la obligación de transparencia en el entrenamiento de modelos.
Aunque la ley establece que las empresas de IA deben publicar un resumen detallado del contenido utilizado para entrenar sus modelos generativos, músicos y asociaciones como IMPALA, IFPI o CISAC temen que esta exigencia quede diluida en su aplicación práctica.
Con campañas como Stay True to the Act, los artistas buscan que no se vuelva letra muerta lo que debería garantizar su derecho a decidir sobre el uso de su obra. En otras palabras: ¿De qué sirve una regulación avanzada si no se implementa?
La gobernanza como eje
Estos tres casos reflejan modelos enfrentados: uno que extrae valor de los datos personales sin consentimiento, y otro que busca proteger identidades, obras y contextos humanos frente a tecnologías de alta escala.
Lo que está en juego no es sólo un conjunto de términos legales: es la capacidad de los usuarios, creadores y ciudadanos para comprender, decidir y controlar cómo se usan sus datos. La gobernanza de la IA no puede construirse sólo desde las empresas ni desde los laboratorios.
Frente a este escenario, en Wolfie adherimos a los principios del Reglamento General de Protección de Datos (RGPD) europeo. Las respuestas generadas no se reutilizan, no se almacenan para entrenamiento, y no se comparten con terceros.
Comentarios