Índice
El anteproyecto de ley para el buen uso y gobernanza de la Inteligencia Artificial requiere que creadores, plataformas digitales y empresas tecnológicas desarrollen mecanismos para identificar y etiquetar contenido generado por IA
En España será obligatorio etiquetar el contenido generado por IA y no hacerlo puede conllevar sanciones económicas de hasta 7,5 millones de euros (o más para las grandes tecnológicas).
Así lo prevé el anteproyecto de ley para el buen uso y gobernanza de la Inteligencia Artificial (IA), aprobado por el Consejo de Ministros en medio del revuelo por los últimos vídeos políticos generados con IA.
El objetivo principal es atajar la proliferación de deepfakes cada vez más realistas y su impacto en la opinión pública, los procesos electorales, las actividades delictivas y, en definitiva, nuestra capacidad para distinguir lo real de lo falso en la información que consumimos a diario.
Todavía no hay fecha para la entrada en vigor de la nueva norma, que aún debe pasar los trámites pertinentes (por la vía urgente, eso sí) antes de ser enviada a las cortes como proyecto de ley para su aprobación.
La previsión es que esté lista para agosto de 2025, cuando empiezan a aplicarse la mayoría de normas recogidas en el Reglamento de Inteligencia Artificial de la UE, la primera Ley de IA del mundo, aprobada en agosto de 2024.
Entretanto, comienza el debate sobre los retos de etiquetar contenido generado por IA en diferentes tipos de plataformas y dispositivos, y con empresas y usuarios ubicados en países no europeos.
¿Qué tipo de contenido está afectado?
El Anteproyecto de Ley para el buen uso y gobernanza de la Inteligencia Artificial (IA) obliga a identificar «cualquier imagen, audio o vídeo generado o manipulado con IA y que muestre a personas reales o inexistentes diciendo o haciendo cosas que nunca han hecho o en lugares donde nunca han estado», pensando particularmente en los deepfakes.
La obligatoriedad de etiquetar contenido generado por IA es de aplicación para todo tipo de materiales creados con Inteligencia Artificial generativa en cualquier ámbito. Se trata de ayudarnos a distinguir lo falso de lo real.
El mundo que percibimos es digital. Una parte cada vez mayor de nuestra realidad la vemos, escuchamos y leemos a través de las pantallas del móvil, el ordenador y la televisión.
Con los avances en IA generativa, ya no podemos confiar ni siquiera en que una voz conocida por teléfono sea real. En banca, ya se están utilizando palabras clave para identificar deepfakes de voz.

Influencers fake, chatbots, avatares digitales, contenido publicitario y promocional, artículos escritos por IA, podcasts guionizados y locutados por IA… Todos deberán identificarse como contenido generado por IA.
El ámbito de aplicación de la ley llega hasta donde llegue la penetración de la IA. Las empresas tecnológicas ya están trabajando en modelos de IA generativa que pueden, por ejemplo, suplantar toda la cadena de producción del cine: crear el guion, los actores, las localizaciones, realización, producción, posproducción y promoción de una película íntegramente con IA.
¿De quién es la responsabilidad de etiquetar contenido generado por IA?
A la hora de etiquetar contenido generado por IA, cabe preguntarse en quién recae la responsabilidad de hacerlo.
Hay numerosos actores implicados: el desarrollador de la herramienta de IA, el creador que sube el contenido a la red, la plataforma que lo aloja, los medios que la difunden, incluso los fabricantes de los dispositivos con los que se genera el contenido, como smartphones y cámaras.
Lo suyo sería etiquetar contenido generado por IA de forma automática al generarlo o distribuirlo, con sistemas de redundancia para detectar e identificar el material artificial en cada paso: creación, alojamiento y difusión.
Los gigantes tecnológicos han comenzado a dar pasos en este sentido. El estándar C2PA (Coalition for Content Provenance and Authenticity) es un sistema de credenciales creado por una coalición de grandes empresas tecnológicas que cuenta con la participación de Open AI, Meta, Google, Meta y Microsoft, entre otras, con la ausencia destacada de Apple.
Sin embargo, a día de hoy, las grandes plataformas de vídeo, como YouTube y Vimeo, y redes sociales tan extendidas como las de Meta (Instagram, Facebook), delegan en el usuario la responsabilidad de etiquetar contenido generado por IA de forma manual al publicar un post.
¿Qué ocurre con el contenido que ya circula sin identificar?
La ley española traslada las obligaciones del reglamento europeo, que estipula que se debe etiquetar contenido generado por IA «de manera clara y distinguible a más tardar con ocasión de la primera interacción o exposición».
¿Qué ocurre con los deepfakes y otros materiales elaborados con IA que ya están en circulación sin identificar? En principio, la ley no obliga a etiquetar contenido generado por IA antes de su entrada en vigor, pero sí que establece directrices para que las plataformas digitales pongan en marcha sistemas de detección e identificación de este tipo de contenidos.
La normativa no solo insta a etiquetar contenido generado por IA, sino también a eliminar los deepfakes que no estén correctamente identificados.
Uno de los retos tecnológicos a este respecto es desarrollar herramientas que clasifiquen correctamente el tipo de contenido si no viene ya con una etiqueta de origen.
¿Qué sanciones prevé la normativa española?
El principal desafío para lograr que todo el material generado por IA esté correctamente identificado está en lograr que las grandes tecnológicas globales cumplan con la ley europea y española. Para ello, se apuesta por multas millonarias.
No cumplir con la obligatoriedad de etiquetar contenido generado por IA es una infracción grave según la nueva ley de IA española. Esto conlleva multas de entre 500.000 euros y 7,5 millones de euros para las empresas que no identifiquen correctamente los materiales creados o manipulados con IA.
Para las Big Tech, la sanción se eleva a entre el 1 y el 2% del volumen de negocio global. Para hacernos una idea, eso supondría entre 600 y 1.200 millones de euros de multa para Meta y entre 750 y 1.500 millones en el caso de Alphabet (Google), por poner un par de ejemplos.
En España, cuatro organismos reguladores se van a encargar de velar por el cumplimiento de la normativa y de emitir las correspondientes sanciones.
La Agencia Española de Protección de Datos (AEPD) se encargará de vigilar los sistemas de alto riesgo, como la biometría y la gestión de fronteras. El uso de la IA en la justicia queda en manos del Consejo General del Poder Judicial (CGPJ) y la Junta Electoral Central se ocupará de los sistemas de IA involucrados en procesos democráticos y electorales. Para todo lo demás, está la Agencia Española de Supervisión de Inteligencia Artificial (AESIA), creada en 2023, con sede en A Coruña.

