Victorias antrópicas que deciden la autorización de los derechos de autor, pero deben enfrentar el juicio en los libros piratas

En un caso de pruebas para la industria de inteligencia artificial, un juez federal dictaminó que la compañía de antropía de AI no violó la ley al capacitar a su chatbot Claude en millones de libros protegidos por derechos de autor.

Pero la compañía todavía está en el gancho y ahora debe probarse sobre cómo ha adquirido estos libros, descargándolos de “Bibliotecas Shadow” en línea de copias piratas.

El juez de distrito estadounidense William Alsup de San Francisco dijo en una decisión presentada el lunes que la destilación del sistema de IA de miles escrito para producir sus propios pasajes de texto calificados como “uso justo” bajo la ley de derechos de autor de los Estados Unidos porque era “esencialmente transformador”.

“Al igual que cualquier lector que le pidiera ser escritor, el antrópico (modelos de idiomas de IA) se formó en obras para no correr por delante y replicar o suplantar, pero convertirse en un rincón duro y crear algo diferente”, escribió Alsup.

Pero al desestimar un reclamo importante hecho por el grupo de autores que demandaron a la compañía por violación de derechos de autor del año pasado, Alsup también dijo que Anthrope todavía debería ser juzgado en diciembre debido a su supuesto robo de sus obras.

“Anthrope no tenía derecho a usar copias piratas para su biblioteca central”, escribió Alsup.

Un trío de escritores de Andrea Bartz, Charles Graeber y Kirk Wallace Johnson informaron en su proceso el verano pasado que las prácticas antrópicas representaban “robo a gran escala” y que la compañía de San Francisco “busca beneficiarse de la expresión humana e ingenio detrás de cada una de estas obras”.

Se sabe que los libros son importantes para los datos, en esencia, miles de millones de palabras cuidadosamente atadas, necesarios para construir modelos de idiomas grandes. En la carrera para superar el desarrollo de los más avanzados de AI Chatbots, varias compañías de tecnología han recurrido en repositorios de libros robados que pueden obtener de forma gratuita.

Los documentos publicados en el Tribunal Federal de San Francisco mostraron las preocupaciones internas de los empleados antropópicos sobre la legalidad de los sitios web piratas. Más tarde, la compañía cambió su enfoque y contrató a Tom Topvey, el antiguo Google -in -Depresped Google Books, una biblioteca de libros excedentes que resistió con éxito años de batallas de derechos de autor.

Con su ayuda, el antrópico comenzó a comprar libros a granel, retirando las llamadas y examinando cada página antes de alimentar las versiones escaneadas en su modelo de IA, según documentos judiciales. Pero eso no deshizo la piratería previa, según el juez.

“Este Anthropal luego compró una copia de un libro que previamente robó de Internet no lo absorbió por la responsabilidad del robo, pero puede afectar el alcance del daño legal”, escribió Alsup.

La decisión puede establecer un precedente para procesos similares que se han acumulado contra el competidor antrópico OpenAI, el fabricante de ChatGPT, así como contra la plataforma de Compañía de Control de Facebook e Instagram.

Fundado en antrópico por ex líderes de apertura en 2021, se comercializó como el desarrollador más responsable centrado en la seguridad de los modelos generales de IA que pueden componer correos electrónicos, resumir documentos e interactuar con las personas de una manera natural.

Pero la demanda presentada el año pasado afirmó que las acciones de Anthrope “se movieron en sus altos objetivos”, construyendo su producto de IA en escritos piratas.

Anthrope dijo el martes que estaba contento que el juez reconoció que la capacitación de IA era transformadora y consistente con el “objetivo de derechos de autor de permitir la creatividad y promover el progreso científico”. Su declaración no abordó los reclamos de piratería.

Los abogados de los autores se negaron a comentar.