California avanza en medidas contra la discriminación por IA y los deepfakes

A medida que las corporaciones incorporan cada vez más tecnologías de inteligencia artificial a la vida cotidiana de los estadounidenses, los legisladores de California quieren generar confianza pública, luchar contra la discriminación algorítmica y prohibir los deepfakes que involucran elecciones o pornografía.

Los esfuerzos en California, hogar de muchas de las empresas de IA más grandes del mundo, podrían allanar el camino para las regulaciones de IA en todo el país. Estados Unidos ya está detrás de Europa en la regulación de la IA para limitar los riesgos, dicen legisladores y expertos, y la tecnología en rápido crecimiento está generando preocupaciones sobre la pérdida de empleos, la desinformación, las invasiones de la privacidad y el sesgo de la automatización.

La semana pasada se presentaron una serie de propuestas destinadas a abordar esas preocupaciones, pero deben obtener la aprobación de la otra cámara antes de llegar al escritorio del gobernador Gavin Newsom. El gobernador demócrata ha promovido a California como uno de los primeros en adoptar y también como regulador, diciendo que el estado pronto podría implementar herramientas de IA generativa para abordar la congestión de las carreteras, hacer que las carreteras sean más seguras y brindar orientación fiscal, incluso cuando su administración considera nuevas reglas contra la discriminación por IA en las prácticas de contratación. . El miércoles, anunció en una cumbre de AI en San Francisco que el estado está considerando al menos tres herramientas más, incluida una para abordar la falta de vivienda.

Con fuertes leyes de privacidad ya vigentes, California está en mejor posición para promulgar regulaciones impactantes que otros estados con grandes intereses en IA, como Nueva York, dijo Tatiana Rice, subdirectora del Future of Privacy Forum, una organización sin fines de lucro que trabaja con legisladores. sobre propuestas de tecnología y privacidad.

«Se necesita una ley de privacidad de datos para poder aprobar una ley de IA», dijo Rice. «Todavía estamos prestando atención a lo que está haciendo Nueva York, pero yo apostaría más por California».

Los líderes de California dijeron que no pueden esperar para actuar, citando las duras lecciones que aprendieron al no poder dominar las empresas de redes sociales cuando podrían haber tenido una oportunidad. Pero también quieren seguir atrayendo empresas de IA al estado.

«Queremos dominar este espacio y soy demasiado competitivo para sugerir lo contrario», dijo Newsom en el evento del miércoles. «Creo que el mundo espera que nosotros, en muchos aspectos, lideremos en este espacio, por lo que sentimos un profundo sentido de responsabilidad para hacerlo bien».

He aquí un vistazo más de cerca a las propuestas de California:

Algunas empresas, incluidos los hospitales, ya utilizan modelos de inteligencia artificial para definir decisiones sobre contratación, vivienda y opciones médicas para millones de estadounidenses sin mucha supervisión. Según la Comisión de Igualdad de Oportunidades en el Empleo de EE. UU., hasta el 83% de los empleadores utilizan la IA para ayudar en la contratación. Cómo funcionan esos algoritmos sigue siendo en gran medida un misterio.

Una de las medidas de IA más ambiciosas adoptadas en California este año abriría el telón de estos modelos al establecer un marco de supervisión para evitar prejuicios y discriminación. Requeriría que las empresas que utilizan herramientas de IA participen en las decisiones que determinan los resultados e informen a las personas afectadas cuando se utiliza la IA. Los desarrolladores de IA tendrían que realizar evaluaciones internas de forma rutinaria de sus modelos para detectar sesgos. Y el fiscal general del estado tendría autoridad para investigar informes sobre modelos discriminatorios e imponer multas de 10.000 dólares por infracción.

Es posible que pronto también se requiera que las empresas de inteligencia artificial comiencen a revelar qué datos están utilizando para entrenar sus modelos.

Inspirado por la huelga de actores de Hollywood que duró meses el año pasado, un legislador de California quiere proteger a los trabajadores de ser reemplazados por sus clones generados por IA, un importante punto de discordia en las negociaciones contractuales.

La propuesta, respaldada por la Federación Laboral de California, permitiría a los artistas cancelar contratos existentes si un lenguaje vago permitiera a los estudios utilizar libremente la IA para clonar digitalmente sus voces y semejanzas. También requeriría que los artistas intérpretes o ejecutantes estén representados por un abogado o representante sindical al firmar nuevos contratos de “voz y semejanza”.

California también puede imponer sanciones por clonar digitalmente a personas muertas sin el consentimiento de sus herederos, citando el caso de una empresa de medios que produjo un especial de comedia falso de una hora de duración generado por inteligencia artificial para recrear el estilo y el material del difunto comediante George Carlin sin el permiso de sus herederos.

Los riesgos del mundo real abundan a medida que la IA generativa crea contenido nuevo, como texto, audio y fotografías, en respuesta a indicaciones. Por eso, los legisladores están considerando exigir barreras protectoras alrededor de sistemas de inteligencia artificial “extremadamente grandes” que tienen el potencial de escupir instrucciones para crear desastres (como construir armas químicas o ayudar en ataques cibernéticos) que podrían causar daños por al menos 500 millones de dólares. Se requeriría que dichos modelos tuvieran un “interruptor de apagado” incorporado, entre otras cosas.

La medida, respaldada por algunos de los investigadores de IA más renombrados, también crearía una nueva agencia estatal para supervisar a los desarrolladores y proporcionar mejores prácticas, incluso para modelos aún más potentes que aún no existen. El fiscal general del estado también podría emprender acciones legales en caso de violaciones.

Una coalición bipartidista busca facilitar el procesamiento de personas que utilizan herramientas de inteligencia artificial para crear imágenes de abuso sexual infantil. La ley actual no permite que los fiscales de distrito persigan a las personas que poseen o distribuyen imágenes de abuso sexual infantil generadas por IA si los materiales no representan a una persona real, dijeron las autoridades.

Una serie de legisladores demócratas también respaldan un proyecto de ley que aborda las falsificaciones electorales, citando preocupaciones después de que las llamadas automáticas generadas por IA imitaran la voz del presidente Joe Biden antes de las recientes primarias presidenciales de New Hampshire. La propuesta prohibiría los deepfakes “materialmente engañosos” relacionados con las elecciones en correos políticos, llamadas automáticas y anuncios de televisión 120 días antes del día de las elecciones y 60 días después. Otra propuesta requeriría que las plataformas de redes sociales etiqueten cualquier publicación relacionada con las elecciones creada por IA.

© Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *