IA y derechos de autor: la Cámara de los Lores traza la línea roja que Europa aún no ha definido

El 6 de marzo de 2026, el Comité de Comunicaciones y Digital de la Cámara de los Lores publicó su cuarto informe de la sesión parlamentaria: «AI, copyright and the creative industries». El documento, de más de ochenta páginas y respaldado por el testimonio de veintiún comparecientes y veintinueve pruebas escritas, no es una mera recopilación de posiciones enfrentadas. Es una toma de posición institucional que tendrá consecuencias prácticas: el Reino Unido no debería debilitar su legislación de propiedad intelectual para atraer inversión en inteligencia artificial —política que parecía primar por el momento—.

La conclusión del Comité resulta llamativa porque se produce en un contexto de presión intensa. El sector tecnológico británico lleva meses reclamando una excepción legal que permita la minería comercial de datos y textos (TDM, por sus siglas en inglés) sin necesidad de obtener licencias de los titulares de derechos. El Gobierno laborista, tras un proceso de consulta iniciado en diciembre de 2024 que recibió más de 11.500 respuestas, había señalado inicialmente su preferencia por un modelo de excepción con mecanismo de exclusión voluntaria (opt-out), similar al europeo. Después se echó atrás, declaró un «reseteo» de su posición y ahora afirma no tener opción preferida. Mientras tanto, los creadores acumulan daños económicos que el propio informe cuantifica con cifras difíciles de ignorar.

Este artículo recoge las principales conclusiones del informe de los Lores y las compara con el marco normativo vigente en la Unión Europea, particularmente con la Directiva sobre derechos de autor en el mercado único digital (Directiva 2019/790) y las obligaciones de transparencia del Reglamento de Inteligencia Artificial (Reglamento UE 2024/1689). El objetivo no es una traducción del documento parlamentario, sino una lectura crítica de sus implicaciones para el Derecho europeo y, por extensión, para España.

La disyuntiva británica: dos futuros posibles

El informe arranca con una dicotomía que refleja bien las tensiones reales del debate. El primer escenario describe un Reino Unido convertido en referencia mundial en el desarrollo responsable de IA, donde los desarrolladores comerciales obtienen licencias, pagan a los creadores y pueden operar sin sombra de responsabilidad legal. En el segundo, el país se desliza hacia la aceptación tácita del uso masivo y no remunerado de contenido creativo, con la mayor parte de los beneficios fluyendo hacia un puñado de empresas estadounidenses.

Los números que maneja el Comité refuerzan la asimetría. Las industrias creativas británicas aportaron 124.000 millones de libras al PIB en 2023, empleando a 2,4 millones de personas. El sector de IA, en 2024, generó 11.800 millones de libras y empleó a unas 86.000 personas. La diferencia de escala no invalida el potencial de la IA, pero sí obliga a preguntarse si tiene sentido económico sacrificar un sector consolidado en favor de ganancias especulativas en otro.

La presidenta del Comité, la baronesa Keeley, lo expresó con una frase que ha resonado en la prensa británica: no deberíamos sacrificar nuestras industrias creativas por las promesas de un futuro con IA. La formulación es deliberadamente política, pero el argumento subyacente es jurídico: el marco de copyright del Reino Unido, descrito repetidamente como el «estándar de oro» internacional, no está roto. Lo que falla es la aplicación efectiva de los derechos ya existentes.

Entrenamiento de modelos y derechos de autor: la batalla por la reproducción

El núcleo técnico-jurídico del informe se centra en una pregunta que sigue sin respuesta judicial en el Reino Unido: ¿constituye infracción de copyright el uso de obras protegidas para entrenar modelos de IA generativa sin licencia?

El Copyright, Designs and Patents Act 1988 (CDPA) establece que el derecho de reproducción se vulnera cuando se copia la totalidad o una parte sustancial de una obra protegida sin autorización, salvo que resulte aplicable una excepción legal. Actualmente existen dos excepciones relevantes. La sección 29A permite la minería de textos y datos exclusivamente con fines de investigación no comercial. La sección 28A cubre copias temporales realizadas como parte de un proceso tecnológico, siempre que sean transitorias, carezcan de significación económica independiente y sirvan únicamente para facilitar un uso lícito de la obra.

Los testigos de las industrias creativas fueron unánimes: la ley británica es clara. Copiar obras protegidas para entrenar modelos comerciales implica su reproducción y requiere licencia. La Independent Society of Musicians señaló que el problema no radica en el alcance de la ley, sino en la falta de mecanismos efectivos de aplicación en el contexto de la IA. La profesora Hayleigh Bosher, de la Universidad de Brunel, subrayó que el derecho de reproducción es un concepto jurídico amplio que abarca cualquier forma de copia, directa o indirecta, temporal o permanente.

Frente a esta posición, los representantes del sector tecnológico desplegaron un argumento que el informe trata con evidente escepticismo. Varias empresas sostuvieron que el entrenamiento de modelos debería entenderse como un proceso análogo al «aprendizaje», similar al de un novelista que lee y absorbe influencias de otros escritores. Si ese aprendizaje no constituye infracción cuando lo realiza un ser humano, ¿por qué habría de serlo cuando lo ejecuta una máquina?

El Comité rechaza explícitamente esta analogía, apoyándose en la valoración de la Oficina de Copyright de Estados Unidos, que concluyó en mayo de 2025 que el paralelismo con el aprendizaje humano descansa sobre una premisa errónea: los seres humanos retienen impresiones imperfectas y filtradas, mientras que el entrenamiento de IA implica la creación de copias digitales perfectas, su análisis prácticamente instantáneo y la producción de modelos capaces de generar obras competidoras a velocidad y escala sobrehumanas. La conclusión del informe es taxativa: la copia y el procesamiento masivo de obras protegidas para el entrenamiento de modelos pueden caracterizarse como reproducción, con independencia de que el modelo resultante no retenga copias legibles por humanos.

El espejo europeo: la Directiva 2019/790 y sus límites

Aquí es donde la comparación con el Derecho de la Unión Europea se vuelve especialmente instructiva. La Directiva sobre derechos de autor en el mercado único digital (Directiva 2019/790) estableció un sistema de doble nivel para la minería de textos y datos. Su artículo 3 permite la TDM por parte de organismos de investigación e instituciones del patrimonio cultural con fines de investigación científica. El artículo 4 va más allá: permite la TDM de obras de acceso lícito con fines tanto comerciales como no comerciales, salvo que los titulares de derechos hayan reservado expresamente sus derechos mediante medios legibles por máquina.

Este modelo opt-out europeo es exactamente lo que la consulta del Gobierno británico propuso inicialmente como su opción preferida. Y es exactamente lo que el informe de los Lores considera inviable.

Las razones son múltiples y se solapan con las dificultades que la propia Unión Europea está experimentando en la implementación práctica del artículo 4. El informe cita testimonios que describen la ausencia de protocolos estandarizados de exclusión, la incertidumbre sobre si los desarrolladores respetan las reservas de derechos y la nula visibilidad sobre el uso real de las obras. La Creative Rights in AI Coalition calificó el régimen europeo como un modelo de reserva de derechos que, bajo otro nombre, no ha logrado sustentar un mercado de licencias sólido.

Ni siquiera OpenAI, que en otros aspectos del debate se posiciona del lado de una mayor flexibilidad, defendió el sistema europeo. Su testimonio ante el Comité destacó los retos significativos de la implementación del mecanismo opt-out en la UE, señalando la variabilidad en la forma en que los titulares intentan reservar sus derechos y la dificultad para que los desarrolladores identifiquen de manera fiable qué obras están disponibles y cuáles están excluidas. Esto resulta particularmente relevante porque sugiere que incluso los principales beneficiarios teóricos del sistema europeo reconocen sus deficiencias prácticas.

El informe identifica un problema estructural que trasciende las fronteras británicas: las herramientas técnicas actuales de reserva de derechos, centradas fundamentalmente en el protocolo robots.txt y en el estándar TDMRep del W3C, operan a nivel de sitio web, no a nivel de obra individual. Esto significa que una página web que combina contenidos de distintos titulares queda sometida a una regla de todo o nada. Además, cuando una obra se redistribuye o se recomparte en plataformas de terceros, las preferencias del creador original simplemente no viajan con ella.

Transparencia: más allá de los resúmenes generales del Reglamento de IA

Si el rechazo a la excepción TDM es la conclusión más visible del informe, la exigencia de transparencia obligatoria es probablemente su aportación más constructiva. El Comité pide al Gobierno británico que establezca un marco claro y proporcionado de información sobre el uso de datos en el entrenamiento de IA, con fuerza de ley para los grandes desarrolladores.

La referencia comparativa inmediata es el artículo 53 del Reglamento de IA de la UE (Reglamento 2024/1689), que exige a los proveedores de modelos de IA de propósito general que pongan a disposición del público un resumen suficientemente detallado del contenido utilizado para el entrenamiento, mediante una plantilla estandarizada publicada por la Oficina Europea de IA en julio de 2025. El código de buenas prácticas para IA de propósito general, publicado también en julio de 2025 y ya firmado por varios de los principales desarrolladores, incluye, además, un formulario de documentación del modelo que recoge información más granular sobre la metodología de entrenamiento, el tipo de datos, la procedencia y el volumen.

El informe de los Lores considera que estos resúmenes de alto nivel resultan insuficientes. Los titulares de derechos necesitan saber, a nivel de obra individual, a qué contenido se ha accedido, cómo, para qué propósito y con qué base legal. La propuesta de transparencia en diez puntos desarrollada por DACS, PICSEL y Convocation Research and Design Labs incluye, entre otros elementos, la identificación de fuentes y propietarios de cada conjunto de datos, la información a nivel de obra, el marco temporal de recopilación, la base jurídica específica de cada ingesta, y la ponderación o contribución porcentual de cada fuente al entrenamiento.

Los desarrolladores tecnológicos objetaron la carga administrativa, los riesgos para los secretos comerciales y las implicaciones de seguridad de una divulgación tan detallada. Google afirmó ante el Comité que la escala de tales revelaciones sería excesiva incluso para una empresa de su tamaño. Meta advirtió que las propuestas de divulgación granular no tienen en cuenta la escala masiva de datos involucrados. Pero el Comité no se dejó persuadir por completo: concluyó que alcanzar una solución que satisfaga las necesidades de ambas partes es factible y exploró un modelo de divulgación confidencial ante un regulador como posible compromiso, inspirándose en el formulario de documentación del código de buenas prácticas europeo.

Este punto merece una reflexión desde las perspectivas española y europea. El Reglamento de IA entra en plena aplicación en materia de transparencia el 2 de agosto de 2026, con sanciones que pueden alcanzar el 3 % de la facturación mundial anual o 15 millones de euros. Pero el nivel de detalle exigido por la plantilla europea es precisamente lo que los titulares de derechos, en el Reino Unido y en la UE, consideran insuficiente. Si la transparencia es, como afirma el informe, la precondición para que funcione cualquier mercado de licencias, la cuestión no es si regular, sino cuánta granularidad es necesaria para que la regulación tenga efecto real.

La laguna del derecho de personalidad: deepfakes y usos «al estilo de»

El informe identifica una laguna jurídica que, a diferencia de las anteriores, sí requiere reforma legislativa: la ausencia en el Derecho británico de un derecho de personalidad robusto o de protección específica de la identidad digital. Esta carencia tiene consecuencias inmediatas. Los sistemas de IA generativa pueden producir contenido «al estilo de» un artista concreto, imitando su voz, estilo visual o persona sin reproducir ninguna obra específica protegida por copyright. También pueden generar réplicas digitales no autorizadas (deepfakes) que reemplazan a artistas en trabajos comerciales.

El copyright protege expresiones concretas, no estilos generales ni ideas. Como señaló el profesor Guadamuz, de la Universidad de Sussex, proteger el estilo bajo copyright se acercaría peligrosamente a conceder monopolios sobre técnicas y convenciones artísticas. Pero la consecuencia práctica es que un sistema de IA puede generar imitaciones estilísticas convincentes sin infringir los derechos de autor de ninguna obra subyacente, dejando un vacío estructural para los creadores cuya posición económica depende precisamente de la singularidad de su estilo.

El Comité recomienda la introducción de protecciones contra réplicas digitales no autorizadas y usos «al estilo de», con un marco que otorgue a creadores e intérpretes un control claro y ejecutable sobre la explotación comercial de su identidad, aunque salvaguardando la libertad de expresión. El informe toma nota del proyecto de ley danés que propone modificar su Ley de Derecho de Autor para proteger a las personas contra deepfakes generados por IA, incluyendo una excepción para caricaturas, sátiras y parodias, siempre que no constituyan desinformación susceptible de causar daño grave.

En la Unión Europea, el Reglamento de IA aborda parcialmente esta cuestión a través del artículo 50, que exige que los contenidos generados por IA que constituyan deepfakes sean identificados como tales, salvo en contextos artísticos, satíricos o ficticios. El borrador del Código de Prácticas sobre marcado y etiquetado de contenido generado por IA, publicado por la Comisión Europea en diciembre de 2025, desarrolla estas obligaciones mediante un enfoque multicapa que combina metadatos, marcas de agua y fingerprinting. Pero el Reglamento de IA no crea un derecho de personalidad propiamente dicho: sus obligaciones son de transparencia y etiquetado, no de control sobre la identidad. La propuesta del informe británico va, en este sentido, más allá del marco europeo vigente.

Soberanía en IA y modelos transparentes: una apuesta emergente

Una de las propuestas más interesantes del informe es su llamamiento a que el Reino Unido priorice el desarrollo de modelos de IA soberanos, es decir, modelos gobernados domésticamente cuyos datos de entrenamiento y procesos de desarrollo estén abiertos al escrutinio. El informe cita dos ejemplos concretos: el modelo Apertus, desarrollado por la Swiss AI Initiative con total transparencia sobre la arquitectura, los datos y el proceso de entrenamiento, y el proyecto OLMo del Allen Institute for AI, que libera pesos, código, datos y puntos de control intermedios bajo licencia abierta.

Ambos proyectos probablemente incluyen obras protegidas por copyright en sus datos de entrenamiento, reconoce el informe. Pero su mayor transparencia reforzaría la capacidad de los titulares de derechos para obtener remuneración por el uso de sus contenidos. La propuesta conecta directamente con la idea de que la opacidad no es un rasgo inevitable de la IA, sino una elección empresarial que la regulación puede y debe corregir.

Desde la perspectiva de la UE, esta idea entronca con los debates sobre autonomía estratégica digital y con iniciativas como los espacios europeos de datos o la inversión comunitaria en infraestructura de computación de alto rendimiento. La diferencia es que el informe británico vincula explícitamente la soberanía en IA con el respeto al copyright, algo que, en el discurso europeo, tiende a quedar diluido en categorías más amplias, como la competitividad o la seguridad.

Un mercado de licencias en construcción

El informe constata que ya existe un mercado emergente de licencias para el uso de contenido creativo por sistemas de IA, con más de 120 acuerdos documentados a nivel global según el rastreador mantenido por el centro CREATe de la Universidad de Glasgow. Pero señala también sus limitaciones: la mayoría de estos acuerdos se han negociado bilateralmente entre grandes empresas estadounidenses, no involucran a desarrolladores ni titulares de derechos británicos de menor tamaño, y se centran en el acceso a datos de alta calidad para fine-tuning y generación aumentada por recuperación (RAG), más que en licencias de copyright propiamente dichas.

El Comité aboga por un ecosistema de licencias diverso, accesible para titulares y desarrolladores de todos los tamaños, donde las organizaciones de gestión colectiva (CMOs) desempeñen un papel central. Resulta significativo que el informe proponga explorar la introducción de un derecho irrenunciable a la remuneración equitativa por los usos de obras e interpretaciones en la IA, tanto como inputs de entrenamiento como, en su caso, como outputs, sujeto a gestión colectiva obligatoria. Esta propuesta tiene ecos directos del modelo europeo de remuneración equitativa por copia privada y de las discusiones sobre el artículo 18 de la Directiva 2019/790 (principio de remuneración adecuada y proporcionada).

Para España, donde las entidades de gestión colectiva como SGAE, CEDRO, VEGAP o AIE tienen una presencia consolidada, la eventual adopción de un mecanismo similar en el ámbito de la IA podría integrarse con relativa naturalidad en el sistema existente, aunque plantearía cuestiones complejas sobre valoración, distribución y el tratamiento de obras huérfanas o de difícil atribución.

Conclusiones: tres modelos, un mismo problema

El panorama global que se dibuja tras este informe muestra tres grandes modelos regulatorios en competencia. Estados Unidos confía en la doctrina del fair use, con resultados judiciales aún fragmentarios: el acuerdo de Anthropic por 1.500 millones de dólares en el caso Bartz demuestra que incluso las empresas con argumentos jurídicos sólidos prefieren transigir antes que asumir los costes de un litigio prolongado. La Unión Europea optó por la excepción TDM con opt-out, un sistema que ahora se revela insuficiente para los titulares de derechos y cuya articulación práctica sigue siendo problemática. Y Australia, en octubre de 2025, descartó expresamente la introducción de una excepción TDM, apostando por un modelo basado en licencias negociadas.

El informe de los Lores se alinea inequívocamente con la posición australiana y va incluso más allá, al pedir que el Gobierno británico emita una declaración pública en la que establezca la expectativa de que los desarrolladores comerciales que operan en el Reino Unido deberían obtener licencias apropiadas cuando utilicen obras protegidas para entrenar modelos generativos de IA.

Para los lectores europeos, y particularmente para los españoles, el informe plantea una pregunta incómoda: ¿es el modelo de opt-out de la Directiva 2019/790 realmente funcional, o nos encontramos ante un marco diseñado para una realidad tecnológica anterior a la explosión de la IA generativa y que necesita ser revisado? La propia Comisión Europea parece consciente de las limitaciones, como sugiere el esfuerzo por desarrollar códigos de buenas prácticas cada vez más detallados. Pero los códigos voluntarios, como advierte el informe de los Lores con una frase de la profesora Rosati, tienen un problema de fondo: una obligación voluntaria no es una obligación.

El debate sobre la IA y los derechos de autor está lejos de resolverse en ninguna jurisdicción. Pero el informe de la Cámara de los Lores aporta algo valioso: la demostración de que es posible articular una posición firme en defensa de los creadores sin renunciar al desarrollo de la IA, y que la falsa dicotomía entre innovación tecnológica y protección de la propiedad intelectual merece ser cuestionada con la misma energía con la que se promueve.