La industria de la inteligencia artificial, un sector en plena ebullición y con un valor de miles de millones de dólares, ha recibido una de las primeras sentencias judiciales importantes sobre una de sus prácticas más controvertidas y para muchos su “pecado original”: el entrenamiento de sus modelos con material protegido por derechos de autor. En un caso seguido de cerca por creadores y tecnólogos, un juez federal de California ha emitido un fallo salomónico en la demanda presentada por un grupo de autores contra la empresa de IA Anthropic, desarrolladora del popular chatbot Claude. La decisión ofrece una victoria parcial para la IA, pero traza una línea roja muy clara en cuanto a la procedencia de los datos, no todo está permitido.

El contexto de la demanda: “Robo a Gran Escala” vs. “Uso Legítimo”
El año pasado, los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson emprendieron acciones legales contra Anthropic acusando a la compañía de haber construido un negocio multimillonario “robando cientos de miles de libros con derechos de autor” para entrenar a su modelo de lenguaje Claude.
La práctica de Anthropic incluía dos métodos principales para amasar su vasta biblioteca de entrenamiento:
- Compra y digitalización: La empresa compraba libros físicos en grandes cantidades, les arrancaba las tapas, escaneaba cada página y luego destruía los originales.
- Descarga de bibliotecas pirata: Anthropic también recurrió a “bibliotecas en la sombra” online, como LibGen, para descargar copias ilegales de millones de libros. Documentos internos revelaron que los ejecutivos preferían la piratería para evitar el “tedio legal/práctico/empresarial” de obtener licencias.
En total, la firma llegó a almacenar una “biblioteca central” con más de siete millones de libros, muchos de ellos piratas. Frente a la demanda por infracción de copyright, Anthropic se defendió bajo la doctrina del “uso legítimo” (fair use), argumentando que su uso del material era “espectacularmente transformador”. Sobre la importancia de este argumento ya comentamos en nuestro post sobre ¿Luz Verde para las IA? Notas sobre el informe de la Oficina de Copyright de EE.UU. sobre el entrenamiento con Obras Protegidas.
El veredicto del Juez Alsup: una decisión con dos caras
El Juez William Alsup, del Distrito Norte de California, dividió su análisis en dos cuestiones fundamentales, con resultados muy diferentes para cada una.
1. El entrenamiento del Modelo de IA es “Uso Legítimo” (Fair Use)
El juez falló a favor de Anthropic en lo que respecta al acto de entrenar a su IA con los libros. Calificó este proceso como “esencialmente transformador” lo que permite la aplicación de la doctrina de Fair Use. Según el juez, el propósito no era replicar o suplantar las obras originales, sino aprender de ellas para crear algo completamente nuevo.
Alsup utilizó una poderosa analogía: “Como cualquier lector que aspira a ser escritor, los LLM de Anthropic se entrenaron sobre las obras, no para adelantarse y replicarlas o suplantarlas, sino para dar un giro y crear algo diferente”.
Fue clave que los autores no demostraran que Claude generará “imitaciones infractoras” o reprodujera sus obras. De haber sido así, “este sería un caso diferente”, afirma el juez. Del mismo modo, la digitalización de los libros comprados legalmente también se consideró uso legítimo, al ser un mero cambio de formato para uso interno.

2. La piratería no tiene cabida en la innovación
Aquí es donde Anthropic perdió desestimándose su defensa. El juez Alsup dictaminó que la adquisición y el almacenamiento de libros piratas para construir su biblioteca interna no constituye un uso legítimo. “Anthropic no tenía ningún derecho a utilizar copias piratas para su biblioteca central”, sentenció el juez.
Rechazó la idea de que un uso transformador posterior (el entrenamiento) pudiera “sanear” una infracción previa (la piratería). El hecho de que Anthropic conservara indefinidamente estas copias, incluso las que no usó para entrenar, indicaba que el objetivo principal era simplemente acumular una vasta biblioteca sin pagar por ella.
El juez Alsup fue categórico al afirmar que la conveniencia o el ahorro de costes no justifican el robo. Su conclusión fue lapidaria: “No hay una excepción en la Ley de Copyright para las empresas de IA”.
Implicaciones y futuro del caso
Aunque Anthropic ha ganado una batalla importante al validar el entrenamiento de IA como un uso transformador (siempre que los materiales se obtengan legalmente), la guerra no ha terminado. La empresa deberá ir a juicio por la adquisición de las copias piratas. Se enfrenta a posibles daños de hasta 150.000 dólares por cada obra con derechos de autor infringidos. El hecho de que posteriormente comprara copias legales de algunos libros robados no la absuelve de la infracción inicial, aunque podría afectar al cálculo de los daños.
Este veredicto sienta un precedente crucial:
- Valida el argumento del “uso transformador” para el entrenamiento de IA, un alivio para empresas como OpenAI y Meta, que enfrentan demandas similares.
- Envía una advertencia clara: el origen de los datos importa. Las compañías que adquieran datos de entrenamiento por medios ilícitos seguirán expuestas a responsabilidades legales.
En definitiva, la sentencia del juez Alsup establece que, si bien la tecnología puede ser transformadora, no está por encima de la ley ni el fair use es una defensa que sana cuaquien infracción previa de los derechos de autor por lo que la innovación y el respeto a los derechos de autor deben encontrar una forma de coexistir.
SUBSTACK