Diversas editoriales han presentado una demanda contra Meta, la empresa matriz de Facebook, acusándola de utilizar sus libros y artículos protegidos por derechos de autor para entrenar sus modelos de inteligencia artificial sin autorización. La acción legal, presentada en un tribunal de Estados Unidos, busca detener lo que consideran una violación masiva de la propiedad intelectual.
Detalles de la demanda
Las editoriales, que incluyen a importantes grupos editoriales, alegan que Meta ha utilizado sus obras para entrenar sistemas de IA como LLaMA, su modelo de lenguaje grande. Afirman que la compañía no obtuvo licencias ni pagó regalías por el uso de estos materiales, lo que constituye una infracción directa de los derechos de autor.
Impacto en la industria editorial
Este caso se suma a una creciente controversia sobre el uso de contenido protegido por derechos de autor para entrenar inteligencia artificial. Los editores argumentan que estas prácticas amenazan la viabilidad de la industria editorial, ya que los modelos de IA pueden generar texto similar sin compensar a los autores originales.
Meta, por su parte, ha defendido sus prácticas, argumentando que el uso de datos para entrenar IA está amparado por el uso justo (fair use) y que sus modelos se entrenan con datos disponibles públicamente. Sin embargo, las editoriales sostienen que el uso de sus obras sin permiso no es ético ni legal.
Precedentes legales
Este no es el primer caso de este tipo. Anteriormente, otros creadores de contenido, como artistas visuales y músicos, han demandado a empresas tecnológicas por el uso no autorizado de sus obras para entrenar IA. El resultado de esta demanda podría sentar un precedente importante para la regulación de la inteligencia artificial y los derechos de autor.
La demanda busca una compensación económica y una orden judicial que impida a Meta seguir utilizando sus obras sin autorización. El caso está siendo seguido de cerca por la industria editorial y tecnológica, ya que podría definir los límites del uso de contenido protegido en el desarrollo de IA.



