
Los rápidos avances en inteligencia artificial (IA) han suscitado importantes debates sobre las implicaciones éticas del entrenamiento de grandes modelos lingüísticos (LLM).Han surgido inquietudes sobre la legitimidad de los métodos de recopilación de datos empleados por las empresas de IA y la responsabilidad que estas tienen por sus prácticas. Un ejemplo destacado ocurrió el año pasado cuando Anthropic enfrentó acciones legales por presuntamente utilizar materiales pirateados para desarrollar su chatbot de IA, Claude. Recientemente, se han revelado novedades en esta disputa de derechos de autor, y Anthropic acordó resolver el caso por 1.500 millones de dólares.
Anthropic llega a un acuerdo por 1.500 millones de dólares en una importante demanda por derechos de autor
En un gesto histórico, Anthropic ha llegado a un acuerdo de 1.500 millones de dólares en un caso emblemático de derechos de autor iniciado por numerosos autores. La demanda alegaba que la compañía utilizó versiones pirateadas de su obra para entrenar sus grandes modelos lingüísticos. Este acuerdo está pendiente de aprobación judicial, prevista para el 8 de septiembre de 2025. De aprobarse, este acuerdo no solo se convertirá en el mayor de su tipo en la historia de Estados Unidos, sino que también sentará un precedente crucial en la intersección de la legislación sobre derechos de autor y la inteligencia artificial.
La demanda colectiva alegó que Anthropic accedió indebidamente a cientos de miles de obras protegidas por derechos de autor mediante medios ilícitos, en lugar de a través de acuerdos de licencia legítimos. Según un artículo del New York Times, aproximadamente 500.000 autores participaron en la demanda, y se espera que los demandantes reciban una compensación de aproximadamente 3.000 dólares por obra. Además, Anthropic se ha comprometido a eliminar todo el material no autorizado de sus conjuntos de datos de entrenamiento, garantizando así que estos recursos ya no se utilizarán en futuros entrenamientos de modelos de IA.
Este caso está a punto de establecer distinciones legales cruciales en IA, aclarando los métodos permitidos para el entrenamiento de modelos de IA e identificando qué constituye un uso legítimo de materiales protegidos por derechos de autor. Si bien el uso de libros adquiridos legítimamente para el entrenamiento de modelos es aceptable, el empleo de copias piratas sigue siendo ilegal. Se espera que esta claridad proporcione un marco para abordar disputas legales similares que involucren a empresas de IA en el futuro.
Desde la perspectiva de autores y editores, este acuerdo representa una victoria monumental, que pone de relieve las preocupaciones éticas asociadas con las empresas de IA que se lucran con obras creativas sin autorización. Al optar por un acuerdo en lugar de prolongar el proceso judicial, Anthropic ha consolidado su posición legal y ha sentado un precedente sobre cómo las empresas podrían afrontar desafíos similares en el futuro.
Deja una respuesta