Los problemas legales que presenta la IA generativa

Blog

HogarHogar / Blog / Los problemas legales que presenta la IA generativa

Jul 10, 2023

Los problemas legales que presenta la IA generativa

Cuatro preguntas que hay que hacerse antes de cambiar el trabajo humano por la IA Ideas de liderazgo para innovar en medio del cambio Por qué aprender a decir no es la lección más importante para este fundador Crédito: Rob Dobi Ideas

Cuatro preguntas que hay que hacerse antes de cambiar la mano de obra humana por la IA

Ideas de liderazgo para innovar en medio del cambio

Por qué aprender a decir no es la lección más importante para este fundador

Crédito: Rob Dobi

Ideas hechas para importar

Inteligencia artificial

Por

Dylan Walsh

28 de agosto de 2023

La inteligencia artificial generativa plantea nuevas cuestiones jurídicas sobre el uso de datos y cómo se regulará el contenido. Un socio legal ofrece orientación.

La inteligencia artificial generativa, incluidos grandes modelos de lenguaje como ChatGPT y software de generación de imágenes como Stable Diffusion, son nuevas herramientas poderosas para individuos y empresas. También plantean preguntas profundas y novedosas sobre cómo se utilizan los datos en los modelos de IA y cómo se aplica la ley al resultado de esos modelos, como un párrafo de texto o una imagen generada por computadora.

"Estamos siendo testigos del nacimiento de una nueva tecnología realmente excelente", afirmó Regina Sam Penti, SB '02, MEng '03, socia jurídica de Ropes & Gray que se especializa en tecnología y propiedad intelectual. "Es un momento emocionante, pero en este momento existe un campo minado legal".

En la conferencia EmTech Digital de este año, patrocinada por MIT Technology Review, Penti discutió lo que los usuarios y las empresas deben saber sobre las cuestiones legales que rodean la IA generativa, incluidos varios casos judiciales pendientes en los EE. UU. y cómo las empresas deberían pensar en protegerse.

La mayoría de las demandas sobre IA generativa se centran en el uso de datos, dijo Penti, “lo cual no es sorprendente, dado que estos sistemas consumen enormes cantidades de datos de todos los rincones del mundo”.

Una demanda presentada por varios programadores contra GitHub, Microsoft y OpenAI se centra en GitHub Copilot, que convierte comandos escritos en inglés simple en código de computadora en docenas de lenguajes de codificación diferentes. Copilot se entrenó y desarrolló a partir de miles de millones de líneas de código abierto que ya se habían escrito, lo que generó dudas sobre la atribución.

"Para las personas que operan en la comunidad de código abierto, es bastante fácil tomar software de código abierto y asegurarse de mantener la atribución, que es un requisito para poder utilizar el software", dijo Penti. Sin embargo, un modelo de IA como el que sustenta Copilot "no se da cuenta de que existen todos estos requisitos que cumplir". La demanda en curso alega que las empresas violaron los términos de la licencia de software, entre otras cosas.

En otro caso, varios artistas visuales presentaron una demanda colectiva contra las empresas que crearon los generadores de imágenes Stable Diffusion, Midjourney y DreamUp, todos los cuales generan imágenes basadas en mensajes de texto de los usuarios. El caso alega que las herramientas de IA violan los derechos de autor al extraer imágenes de Internet para entrenar los modelos de IA. En una demanda separada, Getty Images alega que el uso que hace Stable Diffusion de su producto para entrenar modelos infringe los derechos de autor. Todas las imágenes generadas por Stable Diffusion son trabajos derivados, alega la demanda, y algunas de esas imágenes incluso contienen un vestigio de la marca de agua de Getty.

También hay “demasiados casos para contarlos” centrados en cuestiones de privacidad, dijo Penti. Los modelos de IA entrenados con datos internos podrían incluso violar las propias políticas de privacidad de las empresas. También hay escenarios más específicos, como un caso en el que un alcalde de Australia consideró presentar una demanda por difamación contra ChatGPT después de que afirmara falsamente que había pasado un tiempo en prisión.

Si bien no está claro cómo las amenazas legales afectarán el desarrollo de la IA generativa, podrían obligar a los creadores de sistemas de IA a pensar más detenidamente sobre en qué conjuntos de datos entrenan sus modelos. Lo más probable es que las cuestiones legales puedan ralentizar la adopción de la tecnología a medida que las empresas evalúen los riesgos, dijo Penti.

En Estados Unidos, los dos principales sistemas legales para regular el tipo de trabajo generado por la IA son los derechos de autor y las patentes. Ninguno de los dos es fácil de aplicar, afirmó Penti.

Aplicar la ley de derechos de autor implica determinar a quién se le ocurrió realmente una idea para, por ejemplo, una obra de arte visual. La Oficina de Derechos de Autor de EE. UU. dijo recientemente que una obra puede tener derechos de autor en los casos en que la IA ayudó con la creación; las obras creadas íntegramente por IA no serían protegibles.

La oficina de patentes, que ofrece una forma más sólida de protección para la propiedad intelectual, sigue siendo vaga sobre cómo se aplicará la ley de patentes a los resultados de los sistemas de inteligencia artificial. "Nuestro sistema legal de patentes en realidad se creó para proteger artilugios físicos", dijo Penti, lo que lo hace mal equipado para lidiar con software. Década tras década, la oficina ha reconsiderado lo que es y lo que no es patentable. En la actualidad, la IA plantea interrogantes críticos sobre quién “inventó” algo y si se puede patentar.

“En Estados Unidos, para ser inventor, al menos según las reglas actuales, hay que ser un ser humano y la persona que concibió el invento”, dijo Penti. En el caso del desarrollo de fármacos, por ejemplo, una empresa farmacéutica podría utilizar la IA para analizar millones de perspectivas moleculares y reducirlas a 200 candidatas y luego hacer que los científicos refinen ese grupo hasta las dos mejores posibilidades.

"Según la oficina de patentes, o según las leyes de invención de Estados Unidos, el inventor es quien realmente concibió esas moléculas, que es el sistema de inteligencia artificial", dijo Penti. “En Estados Unidos no se puede patentar un sistema creado con inteligencia artificial. Así que tenemos esta increíble manera de reducir significativamente la cantidad de tiempo que lleva pasar del candidato al fármaco y, sin embargo, no tenemos un buen sistema para protegerlo”.

Dado lo inmaduros que siguen siendo estos marcos regulatorios, “los contratos son su mejor amigo”, dijo Penti. Los datos a menudo se consideran una fuente de riesgo para la privacidad o la seguridad, añadió, por lo que no se protegen como un activo. Para compensar esto, las partes pueden utilizar contratos para acordar quién tiene derecho a una propiedad intelectual diferente.

Pero “en términos de apoyo legal basado en un marco real, Estados Unidos tiene un largo camino por recorrer”, dijo Penti.

Las cuestiones legales que acompañan a la IA generativa tienen varias implicaciones para las empresas que desarrollan programas de IA y aquellas que la utilizan, dijo Penti.

Es posible que los desarrolladores necesiten ser más inteligentes y creativos acerca de dónde obtienen los datos de entrenamiento para los modelos de IA, dijo Penti, lo que también les ayudará a evitar retrasos causados ​​por la falta de claridad sobre lo que está permitido.

Las empresas que comienzan a integrar la IA en sus operaciones tienen varias opciones para reducir el riesgo legal. En primer lugar, las empresas deben ser activas en su debida diligencia, tomando medidas como monitorear los sistemas de inteligencia artificial y obtener garantías adecuadas de los proveedores de servicios y datos. Los contratos con proveedores de servicios y datos deben incluir indemnización, un mecanismo para garantizar que si una empresa utiliza un producto o tecnología de conformidad con un acuerdo, esa empresa esté protegida de responsabilidad legal.

"Sin embargo, en última instancia, creo que la mejor estrategia de mitigación de riesgos es la capacitación adecuada de los empleados que crean estos sistemas para usted", dijo Penti. "Debe asegurarse de que comprendan, por ejemplo, que el hecho de que algo esté disponible de forma gratuita no significa que esté libre de derechos".

Lea a continuación: el argumento a favor de la inteligencia artificial centrada en datos

Demandas por IARegina SampentiAdaptar viejos marcos a nuevos desafíosLo que significa un turbio panorama legal para las empresasArtículosIdeas hechas para importarIdeas hechas para importarIdeas hechas para importar