En el caso de que una IA produzca material que infrinja los derechos de autor, ¿quién sería el responsable?’
La inteligencia artificial está forzando un nuevo enfoque de la ley de propiedad intelectual. Los políticos en algunas jurisdicciones están ayudando a suavizar algunos de los desafíos legales, pero es probable que los tribunales tengan la última palabra.
La IA promete ganancias de productividad notables y, como resultado, algunos políticos se esfuerzan por adaptarse a las necesidades de una nueva generación de gigantes tecnológicos con la esperanza de que traigan consigo la prosperidad.
Pero no todos están contentos con la proliferación de la IA y los desarrolladores ya se enfrentan a desafíos legales, particularmente en relación con la protección de la propiedad intelectual. Algunos gobiernos están cambiando las reglas para disipar estos desafíos, pero es probable que otras jurisdicciones se mantengan firmes, lo que podría disuadir a los desarrolladores si encuentran que el contexto legal es demasiado difícil.
Hay dos consecuencias probables. En primer lugar, se volverán a concebir ciertos aspectos de la ley de PI para permitir un uso más generalizado de la IA. En segundo lugar, las jurisdicciones que son reacias a realizar cambios en sus reglas de PI pueden encontrar desarrolladores de IA que no estén dispuestos a establecer negocios u ofrecer servicios allí.
Los modelos de IA generativa se entrenan utilizando grandes cantidades de datos que normalmente se extraen de Internet. Algunos de estos datos están protegidos por derechos de autor y algunos titulares de derechos de autor afirman que se debería haber solicitado su permiso antes de utilizar su material para la formación. Getty Images ha presentado un caso contra Stability AI por su generador de arte de difusión estable, que supuestamente entrenó a su modelo utilizando imágenes con derechos de autor de Getty.
El Reino Unido está simplificando las cosas para los desarrolladores de IA. Al relajar las reglas que protegen el material protegido por derechos de autor, los desarrolladores de IA pueden utilizar el material con el fin de entrenar sistemas de IA sin permiso del titular de los derechos.
La creación de estas excepciones para los desarrolladores de IA es parte de la estrategia del Reino Unido para convertirse en el lugar de elección para la innovación y la investigación de IA, pero no significa que los desarrolladores de IA estén completamente a salvo de los desafíos legales. El cambio de regla solo permite que aquellos con acceso legal a material protegido por derechos de autor lo usen para entrenar modelos.
La Unión Europea, por el contrario, no está haciendo tales disposiciones y, según el proyecto de Ley de IA, exigiría a los desarrolladores que publiquen una lista completa de todo el material protegido por derechos de autor utilizado para entrenar modelos de IA. Esto podría dar lugar a una avalancha de demandas por parte de los titulares de los derechos de autor que, de otro modo, no habrían sabido que sus datos se habían utilizado en modelos de formación.
La escala de los conjuntos de datos en cuestión también dificulta su auditoría efectiva para garantizar que cualquier lista de material protegido por derechos de autor publicado por un desarrollador sea verdaderamente exhaustiva.
Incluso el enfoque favorable a la IA del Reino Unido no va a eliminar el riesgo de impugnaciones legales por infracción de propiedad intelectual. Es posible que los conjuntos de datos utilizados para entrenar modelos de IA contengan material protegido por derechos de autor que se distribuye ilegalmente. Es difícil auditar el contenido de los vastos conjuntos de datos en cuestión, pero algunos autores estadounidenses afirman que los resúmenes detallados y precisos de sus libros que ChatGPT puede generar son una indicación de que sus libros se usaron en capacitación. La excepción del Reino Unido no permitiría este tipo de infracción de derechos de autor porque los desarrolladores no tienen acceso legal al material protegido por derechos de autor. Aunque el Reino Unido quiere que sus reglas sean lo más amigables posible con la IA, los aspectos fundamentales de la forma en que se entrena la IA generativa pueden significar que aún es probable que entre en conflicto con la ley de propiedad intelectual en algunos aspectos.
También existe el riesgo de que, después de recibir formación sobre material protegido por derechos de autor de forma legal o no, una IA produzca material que infrinja los derechos de autor. OpenAI, GitHub y Microsoft son objeto de una demanda que alega piratería de software a través del asistente de codificación GitHub Copilot. Es extremadamente difícil para un desarrollador de IA demostrar que ha hecho imposible que el modelo genere material protegido por derechos de autor. Dado que la IA generativa es dinámica, los modelos producen diferentes resultados a partir de las mismas indicaciones a medida que aprenden. Esto significa que los resultados de la auditoría no pueden probar que una IA nunca producirá material que infrinja los derechos de autor.
En el caso de que una IA produzca material que infrinja los derechos de autor, ¿quién sería el responsable? ¿El modelo en sí, el usuario o el desarrollador? En el caso de GitHub Copilot, la empresa desarrolladora está siendo demandada, pero la cuestión de la propiedad de la salida tiene otra dimensión. Cuando se produce un trabajo original, es poco probable que Microsoft, OpenAI o Stability AI lo reclamen. Presumiblemente, la persona que ingresa las indicaciones es el propietario de la salida, pero algunos expertos en IA quieren que los propios modelos de IA sean acreditados como propietarios de la propiedad intelectual. En 2021, un tribunal federal australiano reconoció al motor de IA DABUS como inventor, pero el Tribunal Superior anuló el fallo más tarde. Es probable que el tema de la autoría de AI sea un debate continuo, y las jurisdicciones pueden diferir en sus enfoques.
La IA también se ha utilizado para generar material original al estilo de un artista. El material original normalmente no es vulnerable a reclamos por infracción de derechos de autor, pero algunos abogados han especulado que los artistas podrían afirmar que constituyen un trabajo derivado no autorizado.
Los reguladores tienen un desafío aquí. Por un lado, pueden dejar la ley de PI sin cambios, lo que corre el riesgo de que los desarrolladores se vean abrumados y disuadidos por demandas y, potencialmente, pierdan las oportunidades de crecimiento que la IA promete ofrecer. Por otro lado, pueden erosionar las protecciones para los creadores y correr el riesgo de que ese sector quede bajo el control de las empresas tecnológicas . Sin embargo, en cualquier caso, parece que las protecciones de propiedad intelectual serán impugnadas y defendidas en los tribunales a medida que se extienda el uso de la IA.
Fuente: https://www.omfif.org/2023/07/artificial-intelligence-is-catalysing-changes-in-intellectual-property-law/?utm_source=OMFIF+update&utm_medium=email&utm_campaign=OMFIF+update