Opinión: la orden ejecutiva de Biden sobre IA es ambiciosa e incompleta

El mes pasado, el presidente Biden emitió un orden ejecutiva sobre inteligencia artificial, el intento más ambicioso del gobierno hasta el momento establecer reglas básicas para esta tecnología. La orden se centra en establecer mejores prácticas y estándares para los modelos de IA, buscando limitar la propensión de Silicon Valley a lanzar productos antes de que hayan sido completamente probados, para «moverse rápido y romper cosas».

Pero a pesar del alcance de la orden, es 111 páginas y cubre una variedad de temas que incluyen estándares industriales y derechos civiles; dos omisiones flagrantes pueden socavar su promesa.

La primera es que la orden no aborda el vacío legal previsto en la Sección 230 de la Ley de Decencia en las Comunicaciones. Gran parte de la consternación que rodea a la IA tiene que ver con el potencial de falsificaciones profundas (engaños convincentes de vídeo, audio e imágenes) y la desinformación. La orden incluye disposiciones para poner marcas de agua y etiquetar el contenido de IA para que la gente al menos sepa cómo se ha generado. Pero ¿qué pasa si el contenido no está etiquetado?

Gran parte del contenido generado por IA se distribuirá en sitios de redes sociales como Instagram y X (anteriormente Twitter). El daño potencial es aterrador: ya ha habido un auge de desnudos falsos profundosincluidas las adolescentes. Sin embargo, la Sección 230 protege a las plataformas de la responsabilidad por la mayoría del contenido publicado por terceros. Si la plataforma no tiene responsabilidad por la distribución de contenido generado por IA, ¿qué incentivo tiene para eliminarlo, tenga o no marca de agua?

Imponer responsabilidad únicamente al productor La responsabilidad del contenido de IA, en lugar del distribuidor, será ineficaz para frenar las falsificaciones profundas y la desinformación porque el productor del contenido puede ser difícil de identificar, estar fuera de los límites jurisdiccionales o no poder pagar si se le considera responsable. Protegida por la Sección 230, la plataforma puede continuar difundiendo contenido dañino e incluso puede recibir ingresos por ello si se presenta en forma de anuncio.

A proyecto de ley bipartidista patrocinado por los senadores Richard Blumenthal (D-Conn.) y Josh Hawley (R-Mo.) busca abordar esta laguna jurídica en materia de responsabilidad eliminando la inmunidad 230 “para reclamos y cargos relacionados con la inteligencia artificial generativa”. Sin embargo, la legislación propuesta no parece resolver la cuestión de cómo repartir la responsabilidad entre las empresas de IA que generan el contenido y las plataformas que lo albergan.

La segunda omisión preocupante de la orden de IA tiene que ver con los términos de servicio, la molesta letra pequeña que plaga Internet y aparece con cada descarga. Aunque la mayoría de las personas presionan «aceptar» sin leer estos términos, los tribunales han sostenido que pueden ser contratos vinculantes. Esta es otra laguna de responsabilidad para las empresas que fabrican productos y servicios de IA: pueden imponer unilateralmente términos unilaterales largos y complejos que permiten prácticas ilegales o poco éticas y luego afirmar que hemos consentido en ellas.

De esta manera, las empresas pueden eludir los estándares y mejores prácticas establecidos por los paneles asesores. Consideremos lo que pasó con la Web 2.0 (la explosión de contenido generado por usuarios dominado por los sitios de redes sociales). El seguimiento web y la recopilación de datos eran prácticas ética y legalmente dudosas que contravenían las normas sociales y comerciales. Sin embargo, Facebook, Google y otros podrían defenderse alegando que los usuarios “consintieron” estas prácticas intrusivas cuando hicieron clic para aceptar los términos de servicio.

Mientras tanto, las empresas están lanzando al público productos de IA, algunos sin las pruebas adecuadas, y alentando a los consumidores a probar sus productos de forma gratuita. Es posible que los consumidores no se den cuenta de que su uso “gratuito” ayuda a entrenar estos modelos y, por lo tanto, sus esfuerzos son esencialmente trabajo no remunerado. Es posible que tampoco se den cuenta de que están renunciando a derechos valiosos y asumiendo responsabilidad legal.

Por ejemplo, Abrir los términos de servicio de AI declarar que los servicios se proporcionan «tal cual», sin garantía, y que el usuario «defenderá, indemnizará y eximirá de responsabilidad» a Open AI de «cualquier reclamación, pérdida y gasto (incluidos los honorarios de abogados)» que surjan del uso. de los servicios. Los términos también requieren que el usuario renuncie al derecho a un juicio con jurado y una demanda colectiva. Por malas que parezcan tales restricciones, son estándar en todo La industria. Algunas compañías incluso reclamar un licencia amplia al contenido de IA generado por el usuario.

La orden de IA de Biden ha sido en gran medida aplaudió por intentar lograr un equilibrio entre la protección del interés público y la innovación. Pero para darle fuerza a las disposiciones, debe haber mecanismos de aplicación y la amenaza de demandas. Las reglas que se establecerán bajo la orden deben limitar expresamente la inmunidad de la Sección 230 e incluir estándares de cumplimiento para las plataformas. Estos podrían incluir procedimientos para revisar y eliminar contenido, mecanismos para informar problemas tanto dentro de la empresa como externamente, y tiempos mínimos de respuesta de las empresas a inquietudes externas. Además, no se debe permitir que las empresas utilicen términos de servicio (u otras formas de “consentimiento”) para eludir los estándares y reglas de la industria.

Deberíamos prestar atención a las duras lecciones de las últimas dos décadas para evitar repetir los mismos errores. Autorregulación para Gran tecnología simplemente no funciona, y una amplia inmunidad para las corporaciones con fines de lucro crea incentivos socialmente dañinos para crecer a toda costa. En la carrera por dominar el ferozmente competitivo espacio de la IA, es casi seguro que las empresas priorizarán el crecimiento y descontarán la seguridad. Los líderes de la industria han expresado su apoyo a las barreras de seguridad, las pruebas y la estandarización, pero lograr que cumplan requerirá más que sus buenas intenciones: requerirá responsabilidad legal.

Nancy Kim es profesora de derecho en la Facultad de Derecho de Chicago-Kent, Instituto de Tecnología de Illinois.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *