¿Preocupado por la IA? Cómo planean los legisladores de California abordar los riesgos de la tecnología en 2024

Jodi Long fue tomada por sorpresa por la jaula llena de cámaras destinadas a capturar imágenes de su rostro y cuerpo.

«Me asusté un poco porque, antes de entrar allí, dije que no recuerdo que esto estuviera en mi contrato», dijo el actor.

A Long le dijeron que los realizadores necesitaban su escaneo digital porque querían asegurarse de que sus brazos estuvieran colocados correctamente en una escena en la que sostiene un personaje generado por computadora.

Ese momento en 2020 se quedó con Long, presidenta del local de SAG-AFTRA en Los Ángeles, mientras negociaba protecciones en torno al uso de inteligencia artificial cuando los actores se declararon en huelga. En noviembre, el gremio de actores llegó a un acuerdo con estudios de hollywood que, entre otras cosas, requería consentimiento y compensación por el uso de la réplica digital de un trabajador.

La presidenta local de SAG-AFTRA Los Ángeles, Jodi Long, a la derecha, habla durante una manifestación en septiembre durante la huelga del sindicato de actores.

(Richard Shotwell / Invisión / Associated Press)

Los sindicatos no son los únicos que intentan limitar las amenazas potenciales de la IA. Junto con la firma del gobernador Gavin Newsom de un orden ejecutiva sobre IA En septiembre, los legisladores de California presentaron una serie de leyes que preparan el escenario para una mayor regulación en 2024. Algunas de las propuestas se centran en proteger a los trabajadores, combatir los sistemas de inteligencia artificial que pueden contribuir a los prejuicios raciales y de género y establecer nuevos requisitos para proteger contra el uso indebido. de la IA para los delitos cibernéticos, el desarrollo de armas y la propaganda.

Sin embargo, aún no está claro si los legisladores de California lograrán aprobar una legislación sobre inteligencia artificial. Se enfrentarán al lobby de empresas tecnológicas multimillonarias, incluidas Microsoft, Google y Facebook, potencias políticas que paralizaron con éxito varios proyectos de ley sobre IA presentados este año.

La inteligencia artificial existe desde hace décadas. Pero a medida que la tecnología avanza rápidamente, la capacidad de las máquinas para realizar tareas asociadas con la inteligencia humana ha planteado dudas sobre si la IA reemplazará empleos, alimentará la difusión de información errónea o incluso conducirá a la extinción de la humanidad.

A medida que los legisladores intentan regular la IA, también intentan comprender cómo funciona la tecnología para no obstaculizar sus beneficios potenciales y, al mismo tiempo, intentar mitigar los peligros.

«Uno de los principales desafíos es que esta tecnología es de doble uso, lo que significa que el mismo tipo de tecnología que puede, por ejemplo, conducir a mejoras masivas en la atención médica, también puede usarse potencialmente para causar daños bastante graves», dijo Daniel Ho, profesor en la facultad de derecho de la Universidad de Stanford, quien asesora al Casa Blanca sobre la política de IA.

Los políticos sienten una sensación de urgencia, señalando la resistencia que ya han enfrentado al tratar de controlar algunos de los problemas de salud mental y seguridad infantil exacerbados por las redes sociales y otros productos tecnológicos. Si bien algunos ejecutivos de tecnología dicen que no se oponen a la regulación, también han dicho que los críticos están exagerando los riesgos y expresaron preocupación de que tendrán que lidiar con un mosaico de reglas que varían en todo el mundo.

TechNet, un grupo comercial que incluye una variedad de empresas como Apple, Google y Amazon, describe en su sitio web qué apoyarían y qué no apoyarían los miembros en lo que respecta a la regulación de la IA. Por ejemplo, TechNet dice que los formuladores de políticas deberían evitar “prohibiciones generales sobre la inteligencia artificial, el aprendizaje automático u otras formas de toma de decisiones automatizada” y no obligar a los desarrolladores de IA a compartir públicamente información que sea de propiedad exclusiva.

El asambleísta estatal Ash Kalra (demócrata por San José) dijo que los formuladores de políticas no confían en que las empresas de tecnología se regulen a sí mismas.

«Como legislador, mi intención es proteger al público, proteger a los trabajadores y proteger contra los riesgos que pueden crearse a través de la IA no regulada», dijo Kalra. «Quienes están en la industria tienen diferentes prioridades».

La IA podría afectar a 300 millones de empleos a tiempo completo, según un estudio de abril informe por Goldman Sachs.

En septiembre, Kalra presentó legislación eso daría a los actores, locutores y otros trabajadores una forma de anular contratos vagos que permiten a los estudios y otras empresas utilizar inteligencia artificial para clonar digitalmente sus voces, rostros y cuerpos. Kalra dijo que por ahora no tiene planes de dejar de lado el proyecto de ley, que está respaldado por SAG-AFTRA.

legisladores federales También hemos introducido legislación destinada a proteger las voces y la imagen de los trabajadores. El presidente Biden firmó un orden ejecutiva sobre IA en octubre, señalando cómo la tecnología podría mejorar la productividad pero también desplazar a los trabajadores.

El presidente Biden y el gobernador Gavin Newsom en un debate sobre inteligencia artificial en junio. Biden y Newsom han emitido y firmado órdenes ejecutivas sobre IA.

(Susan Walsh/Prensa asociada)

Duncan Crabtree-Ireland, director ejecutivo nacional y negociador jefe de SAG-AFTRA, dijo que cree que es importante que los legisladores estatales y federales regulen la IA sin demora.

“Tiene que provenir de una variedad de fuentes y [be] ensamblados de una manera que cree la imagen definitiva que todos queremos ver”, dijo.

Los formuladores de políticas fuera de Estados Unidos ya han estado avanzando. En diciembre, el Parlamento Europeo y los estados miembros de la UE llegaron a un acuerdo histórico sobre la Ley de IA, calificando la propuesta como “la primera ley integral de IA del mundo”. La legislación incluye un conjunto diferente de reglas basadas en el riesgo de los sistemas de IA y también requeriría herramientas de IA que generen texto, imágenes y otros contenidos como ChatGPT de OpenAI para publicar qué datos protegidos por derechos de autor se utilizaron para entrenar los sistemas.

A medida que los legisladores federales y estatales afinan la legislación, los trabajadores ven cómo la IA está afectando sus empleos y prueban si las leyes actuales ofrecen suficiente protección.

Empresas de tecnología, incluidas OpenAI, Stability AI, respaldada por Microsoft, Meta padre de Facebook y Anthropic, enfrentan demandas por acusaciones de que utilizaron trabajos protegidos por derechos de autor de artistas y escritores para entrenar sus sistemas de inteligencia artificial. El miércoles, los New York Times presentó una demanda contra Microsoft y OpenAI acusando a las empresas de tecnología de utilizar trabajos protegidos por derechos de autor para crear productos de inteligencia artificial que competirían con el medio de comunicación.

Tim Friedlander, presidente y cofundador de la Asociación Nacional. of Voice Actors, dijo que sus miembros están perdiendo empleos porque algunas empresas han decidido utilizar voz generada por IA. Los actores también han alegado que sus voces están siendo clonadas sin su consentimiento o compensación, un problema que también enfrentan los músicos.

«Una de las cosas difíciles en este momento es que no hay manera de probar que algo es humano o sintético o de poder probar de dónde vino la voz», dijo.

La protección de los trabajadores es sólo una de las cuestiones relacionadas con la IA que los legisladores de California intentarán abordar en 2024.

El senador Scott Wiener (D-San Francisco) presentó en septiembre la Ley de Seguridad en la Inteligencia Artificial, cuyo objetivo es abordar algunos de los mayores riesgos que plantea la IA, dijo, incluido el posible uso indebido de la tecnología en armas químicas y nucleares, la interferencia electoral y Ataques ciberneticos. Aunque los legisladores no quieren “aplastar la innovación”, también quieren ser proactivos, dijo Wiener.

«Si no se adelantan, entonces puede ser demasiado tarde y lo hemos visto en las redes sociales y otras áreas donde deberíamos haber establecido al menos sistemas regulatorios amplios antes de que comience el problema», dijo. .

A los legisladores también les preocupa que los sistemas de inteligencia artificial puedan cometer errores que conduzcan a un trato desigual de las personas en función de características protegidas como la raza y el género. La asambleísta Rebecca Bauer-Kahan (D-Orinda) patrocina un proyecto de ley que prohibiría a una persona o entidad implementar un sistema o servicio de inteligencia artificial que participe en la toma de «decisiones consecuentes» que resulten en una «discriminación algorítmica».

La preocupación de que los algoritmos puedan amplificar los prejuicios raciales y de género debido a los datos que se utilizan para entrenar los sistemas informáticos ha sido un problema constante en la industria tecnológica. Amazon descartó una herramienta de reclutamiento de inteligencia artificial, por ejemplo, porque mostraba prejuicios contra las mujeres después de que los modelos informáticos fueron entrenados con currículums que en su mayoría provenían de hombres. Reuters reportado en 2018.

Aprobar legislación sobre IA ya ha resultado difícil. El proyecto de ley de Bauer-Kahan ni siquiera llegó a la Asamblea para su votación. Un análisis de la legislación, AB 331dijo que varias industrias y empresas expresaron su preocupación de que fuera demasiado amplio y resultara en una “regulación excesiva en este espacio”.

Aún así, Bauer-Kahan dijo que planea reintroducir el proyecto de ley en 2024 a pesar de la oposición que enfrentó en la última sesión.

«No es que quiera que estas herramientas desaparezcan, pero quiero asegurarme de que cuando entren al mercado sepamos que no son discriminatorias», dijo. «Ese equilibrio no es mucho pedir».

Tratar de determinar qué cuestiones priorizar en lo que respecta a los riesgos potenciales de la IA es otro desafío que enfrentarán los políticos en 2024, dado que proyectos de ley controvertidos pueden ser difíciles de aprobar en un año electoral.

«Si no hay un acuerdo sobre al menos algún sentido de priorización de los daños, y cuáles son los más urgentes, puede resultar difícil determinar cuál podría ser la forma más efectiva de intervención», dijo Ho, el experto de Stanford. Profesor de la Facultad de Derecho.

A pesar de todos los temores que rodean a la IA, dijo Long, sigue siendo optimista sobre el futuro.

Ha protagonizado películas taquilleras como “Shang-Chi y la leyenda de los diez anillos” de Marvel y en 2021 se convirtió en la primera estadounidense de origen asiático en ganar un Emmy diurno por su destacada actuación de una actriz de reparto en el programa de Netflix “Dash and Lily”. .”

«Mi industria es un proceso de colaboración entre muchos humanos», dijo. «Y mientras tengamos humanos publicando nuestras historias, creo que estaremos bien».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *