La IA generativa podría dejar a los usuarios con la culpa de violaciones de derechos de autor

La inteligencia artificial generativa ha sido aclamada por su potencial para transformar la creatividad y, especialmente, al reducir las barreras a la creación de contenidos. Si bien a menudo se ha destacado el potencial creativo de las herramientas de IA generativa, su popularidad plantea interrogantes sobre la propiedad intelectual y la protección de los derechos de autor.

Las herramientas de IA generativa, como ChatGPT, funcionan con modelos de IA fundamentales o modelos de IA entrenados con grandes cantidades de datos. La IA generativa se entrena con miles de millones de datos tomados de texto o imágenes extraídas de Internet.

La IA generativa utiliza métodos de aprendizaje automático muy potentes, como el aprendizaje profundo y el aprendizaje por transferencia, en depósitos de datos tan vastos para comprender las relaciones entre esos datos (por ejemplo, qué palabras tienden a seguir a otras palabras). Esto permite que la IA generativa realice una amplia gama de tareas que pueden imitar la cognición y el razonamiento.

Un problema es que los resultados de una herramienta de inteligencia artificial pueden ser muy similares a los materiales protegidos por derechos de autor. Dejando de lado cómo se entrenan los modelos generativos, el desafío que plantea el uso generalizado de la IA generativa es cómo se podría responsabilizar a los individuos y las empresas cuando los resultados de la IA generativa infringen las protecciones de los derechos de autor.

Cuando las indicaciones resultan en violaciones de derechos de autor

Investigadores y periodistas han planteado la posibilidad de que, a través de estrategias de incitación selectivas, las personas puedan terminar creando textos, imágenes o videos que violen las leyes de derechos de autor. Normalmente, las herramientas de inteligencia artificial generativa generan una imagen, texto o video, pero no brindan ninguna advertencia sobre una posible infracción. Esto plantea la cuestión de cómo garantizar que los usuarios de herramientas de IA generativa no acaben infringiendo la protección de los derechos de autor sin saberlo.

El argumento legal presentado por las empresas de IA generativa es que la IA entrenada en obras protegidas por derechos de autor no constituye una infracción de los derechos de autor, ya que estos modelos no copian los datos de entrenamiento; más bien, están diseñados para aprender las asociaciones entre los elementos de los escritos y las imágenes, como palabras y píxeles. Las empresas de inteligencia artificial, incluida Stability AI, fabricante del generador de imágenes Stable Diffusion, sostienen que no es probable que las imágenes de salida proporcionadas en respuesta a un mensaje de texto en particular coincidan con ninguna imagen específica en los datos de entrenamiento.

Los creadores de herramientas de IA generativa han argumentado que las indicaciones no reproducen los datos de entrenamiento, lo que debería protegerlos de reclamaciones por violación de derechos de autor. Sin embargo, algunos estudios de auditoría han demostrado que los usuarios finales de IA generativa pueden emitir mensajes que resulten en violaciones de derechos de autor al producir obras que se parecen mucho a contenidos protegidos por derechos de autor.

Establecer una infracción requiere detectar una estrecha semejanza entre los elementos expresivos de una obra estilísticamente similar y la expresión original en obras particulares de ese artista. Los investigadores han demostrado que métodos como los ataques de extracción de datos de entrenamiento, que implican estrategias de activación selectivas, y la memorización extraíble, que engaña a los sistemas generativos de IA para que revelen datos de entrenamiento, pueden recuperar ejemplos de entrenamiento individuales que van desde fotografías de individuos hasta logotipos de empresas registradas.

Estudios de auditoría como el realizado por el informático Gary Marcus y el artista Reid Southern proporcionan varios ejemplos en los que puede haber poca ambigüedad sobre el grado en que los modelos de IA generativa visual producen imágenes que infringen la protección de los derechos de autor. El New York Times proporcionó una comparación similar de imágenes que muestran cómo las herramientas de inteligencia artificial generativa pueden violar la protección de los derechos de autor.

Cómo construir barandillas

Los juristas han denominado el desafío de desarrollar barreras contra la infracción de derechos de autor en las herramientas de inteligencia artificial como el “problema de Snoopy”. Cuanto más protege una obra protegida por derechos de autor una imagen (por ejemplo, el personaje de dibujos animados Snoopy), más probable es que una herramienta de inteligencia artificial generativa la copie en comparación con copiar una imagen específica.

Los investigadores en visión por computadora llevan mucho tiempo lidiando con la cuestión de cómo detectar infracciones de derechos de autor, como logotipos falsificados o imágenes protegidas por patentes. Los investigadores también han examinado cómo la detección de logotipos puede ayudar a identificar productos falsificados. Estos métodos pueden resultar útiles para detectar violaciones de derechos de autor. También podrían resultar útiles métodos para establecer la procedencia y la autenticidad del contenido.

Con respecto al entrenamiento de modelos, los investigadores de IA han sugerido métodos para hacer que los modelos generativos de IA desaprendan datos protegidos por derechos de autor. Algunas empresas de inteligencia artificial, como Anthropic, han anunciado compromisos de no utilizar los datos producidos por sus clientes para entrenar modelos avanzados como el modelo de lenguaje grande de Anthropic, Claude. También pueden ser útiles métodos para la seguridad de la IA, como los equipos rojos (intentos de obligar a las herramientas de IA a comportarse mal) o garantizar que el proceso de capacitación del modelo reduzca la similitud entre los resultados de la IA generativa y el material protegido por derechos de autor.

Papel de la regulación

Los creadores humanos saben que deben rechazar solicitudes para producir contenido que viole los derechos de autor. ¿Pueden las empresas de IA construir barreras similares en la IA generativa?

No existen enfoques establecidos para construir tales barreras de seguridad en la IA generativa, ni tampoco existen herramientas o bases de datos públicas que los usuarios puedan consultar para establecer una infracción de derechos de autor. Incluso si herramientas como estas estuvieran disponibles, podrían suponer una carga excesiva tanto para los usuarios como para los proveedores de contenidos.

Dado que no se puede esperar que los usuarios ingenuos aprendan y sigan las mejores prácticas para evitar infringir material protegido por derechos de autor, los formuladores de políticas y la regulación tienen roles que desempeñar. Puede ser necesaria una combinación de directrices legales y reglamentarias para garantizar las mejores prácticas en materia de seguridad de los derechos de autor.

Por ejemplo, las empresas que crean modelos de IA generativa podrían utilizar filtros o restringir los resultados del modelo para limitar la infracción de derechos de autor. De manera similar, puede ser necesaria una intervención regulatoria para garantizar que los creadores de modelos generativos de IA construyan conjuntos de datos y entrenen modelos de manera que reduzcan el riesgo de que el resultado de sus productos infrinja los derechos de autor de los creadores.

Anjana Susarla es profesora Omura Saxena de IA responsable en el Departamento de Contabilidad y Sistemas de Información, Universidad del estado de michigan.

The Conversation es una fuente independiente y sin fines de lucro de noticias, análisis y comentarios de expertos académicos.

© La conversación

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *