En un caso que subraya las crecientes tensiones entre la propiedad intelectual y el avance de la inteligencia artificial, tres autores han presentado una demanda contra Anthropic, la empresa detrás del chatbot Claude.
Los demandantes, entre los que se encuentran la periodista Andrea Bartz y los escritores Wallace Johnson y Charles Graeber, alegan que la empresa utilizó ilegalmente sus obras, protegidas por derechos de autor, para entrenar su modelo de inteligencia artificial sin autorización.
La demanda sostiene que Anthropic descargó y utilizó conjuntos de datos masivos, como The Pile y Books3, que incluyen cientos de miles de libros con copyright.
Los autores afirman que la compañía ha construido “un negocio multimillonario” basándose en el uso no autorizado de estas obras, lo que constituye una violación directa de sus derechos de autor.
Este caso no es aislado. En el último año, varias demandas similares han surgido contra otras grandes compañías de inteligencia artificial, como OpenAI, creadora de ChatGPT. Estos litigios destacan una problemática creciente en la era de la inteligencia artificial: la necesidad de equilibrar la innovación tecnológica con el respeto a los derechos de propiedad intelectual.
Los demandantes buscan no solo una compensación por los daños y perjuicios sufridos, sino también que se impida a Anthropic el uso futuro de estas obras para mejorar su modelo de IA. Este caso podría sentar un precedente importante en la industria, obligando a las empresas de inteligencia artificial a reevaluar cómo obtienen y utilizan los datos para entrenar sus modelos.
La situación plantea preguntas fundamentales sobre el futuro del desarrollo de la IA y los derechos de los creadores de contenido, en un momento en que la tecnología avanza a pasos agigantados y las regulaciones aún están intentando ponerse al día.
Este caso será uno a seguir de cerca, ya que podría influir en la forma en que las compañías tecnológicas manejan los derechos de autor en el futuro y cómo se desarrollan las políticas en torno al entrenamiento de modelos de IA con datos protegidos.
NOTICIAS RELACIONADAS: