Los primeros grandes intentos de regular la IA enfrentan vientos en contra de todos lados

La inteligencia artificial está ayudando a decidir qué estadounidenses obtienen la entrevista de trabajo, el apartamento e incluso la atención médica, pero las primeras propuestas importantes que controlan el sesgo en la toma de decisiones de la IA enfrentan vientos en contra en todas direcciones.

Los legisladores que trabajan en estos proyectos de ley, en estados como Colorado, Connecticut y Texas, se están reuniendo para defender sus propuestas mientras los grupos orientados a los derechos civiles y la industria juegan un tira y afloja con los componentes centrales de la legislación.

Organizaciones, incluidos sindicatos y grupos de defensa del consumidor, están exigiendo más transparencia por parte de las empresas y mayores recursos legales para que los ciudadanos presenten demandas por discriminación contra la IA. La industria está ofreciendo un apoyo tentativo, pero se resiste a esas medidas de rendición de cuentas.

Los legisladores bipartidistas atrapados en el medio, incluidos los de Alaska, Georgia y Virginia, han estado trabajando juntos en la legislación sobre IA ante la inacción federal. El objetivo de la conferencia de prensa es resaltar su trabajo entre estados y partes interesadas, reforzando la importancia de la colaboración y el compromiso en este primer paso en la regulación.

Los legisladores incluyen al senador estatal demócrata de Connecticut, James Maroney, al líder de la mayoría demócrata del Senado de Colorado, Robert Rodríguez, y a la senadora republicana de Alaska, Shelley Hughes.

“En este momento, no tenemos confianza en que el gobierno federal apruebe nada rápidamente. Y vemos que hay una necesidad de regulación», dijo Maroney. «Es importante que los defensores de la industria, el gobierno y el mundo académico trabajen juntos para conseguir las mejores regulaciones y legislación posibles».

Los legisladores argumentan que los proyectos de ley son un primer paso que se puede seguir avanzando.

Si bien este año se están debatiendo más de 400 proyectos de ley relacionados con la IA en los parlamentos estatales de todo el país, la mayoría apunta a una industria o simplemente a una parte de la tecnología, como los deepfakes utilizados en las elecciones o para crear imágenes pornográficas.

Los proyectos de ley más importantes que ha presentado este equipo de legisladores ofrecen un marco amplio para la supervisión, particularmente en torno a uno de los dilemas más perversos de la tecnología: la discriminación por IA. Los ejemplos incluyen una IA que no pudo evaluar con precisión a los pacientes médicos negros y otra que degradó los currículums de las mujeres mientras filtraba las solicitudes de empleo.

Aún así, hasta el 83% de los empleadores utilizan algoritmos para ayudar en la contratación, según estimaciones de la Comisión de Igualdad de Oportunidades en el Empleo.

Si no se hace nada, casi siempre habrá sesgos en estos sistemas de IA, explicó Suresh Venkatasubramanian, profesor de informática y ciencia de datos de la Universidad de Brown que imparte una clase sobre cómo mitigar los sesgos en el diseño de estos algoritmos.

“En primer lugar, hay que hacer algo explícito para no ser parcial”, dijo.

Estas propuestas, principalmente en Colorado y Connecticut, son complejas, pero la idea central es que se exigiría a las empresas que realicen «evaluaciones de impacto» para ciertos sistemas de IA. Esos informes incluirían descripciones de cómo la IA influye en una decisión, los datos recopilados y un análisis de los riesgos de discriminación, junto con una explicación de las salvaguardas de la empresa.

La controversia es principalmente quién puede ver esos informes. Un mayor acceso a la información sobre los sistemas de IA, como las evaluaciones de impacto, significa una mayor responsabilidad y seguridad para el público. Pero a las empresas les preocupa que esto también aumente el riesgo de demandas y la revelación de secretos comerciales.

Según los proyectos de ley en Colorado, Connecticut y California, la empresa no tendría que presentar rutinariamente evaluaciones de impacto al gobierno. La responsabilidad también recaería en gran medida en las empresas de informar al fiscal general si encuentran discriminación: un gobierno u organización independiente no probaría estos sistemas de inteligencia artificial en busca de sesgos.

A los sindicatos y a los académicos les preocupa que la excesiva dependencia de los informes propios de las empresas ponga en peligro la capacidad del público o del gobierno para detectar la discriminación por IA antes de que cause daño.

«Ya es difícil cuando tienes estas enormes empresas con miles de millones de dólares», dijo Kjersten Forseth, que representa a la AFL-CIO de Colorado, una federación de sindicatos que se opone al proyecto de ley de Colorado. «Básicamente, les estás dando un empujón extra para presionar a un trabajador o consumidor».

Las empresas de tecnología dicen que una mayor transparencia revelará secretos comerciales en un mercado ahora hipercompetitivo. David Edmonson, de TechNet, una red bipartidista de directores ejecutivos y altos ejecutivos de tecnología que ejercen presión sobre los proyectos de ley de IA, dijo en un comunicado que la organización trabaja con los legisladores para «garantizar que cualquier legislación aborde el riesgo de la IA y al mismo tiempo permita que florezca la innovación».

La Cámara de Comercio de California se opone al proyecto de ley de ese estado, preocupada de que las evaluaciones de impacto puedan hacerse públicas en un litigio.

Otro componente polémico de los proyectos de ley es quién puede presentar una demanda conforme a la legislación, que los proyectos de ley generalmente limitan a los fiscales generales estatales y otros abogados públicos, no a los ciudadanos.

Después de que se eliminara una disposición del proyecto de ley de California que permitía a los ciudadanos demandar, Workday, una empresa de software de recursos humanos y finanzas, respaldó la propuesta. Workday sostiene que las acciones civiles de los ciudadanos dejarían las decisiones en manos de los jueces, muchos de los cuales no son expertos en tecnología, y podrían dar lugar a un enfoque regulatorio inconsistente.

«No podemos impedir que la IA se integre en nuestra vida diaria, por lo que obviamente el gobierno tiene que intervenir en algún momento, pero también tiene sentido que la propia industria quiera un buen entorno para prosperar», afirmó Chandler Morse, vicepresidente de políticas públicas y asuntos corporativos en Workday.

Sorelle Friedler, profesora que se centra en el sesgo de la IA en Haverford College, responde.

«Así es como la sociedad norteamericana hace valer sus derechos: mediante demandas», afirmó Friedler.

El senador Maroney de Connecticut dijo que ha habido rechazo a los artículos que afirman que él y el representante Giovanni Capriglione, republicano por Texas, han estado “impulsando proyectos de ley redactados por la industria” a pesar de todo el dinero gastado por la industria para cabildear contra la legislación.

Maroney señaló que un grupo industrial, la Consumer Technology Association, publicó anuncios y creó un sitio web, instando a los legisladores a derrotar la legislación.

“Creo que estamos en el camino correcto. Hemos trabajado junto con gente de la industria, del mundo académico y de la sociedad civil”, afirmó.

«Todo el mundo quiere sentirse seguro y estamos creando regulaciones que permitirán una IA segura y confiable», añadió.

© Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *