El lobby sobre IA aumenta casi un 200% a medida que aumentan los pedidos de regulación

El lobby relacionado con la inteligencia artificial alcanzó nuevas alturas en 2023, con la participación de más de 450 organizaciones. Esto marca un aumento del 185% con respecto al año anterior, cuando solo 158 organizaciones lo hicieron, según revelaciones de lobby federal analizadas por OpenSecrets en nombre de CNBC.

El aumento del cabildeo sobre la IA se produce en medio de crecientes llamados a la regulación de la IA y el impulso de la administración Biden para comenzar a codificar esas reglas. Las empresas que comenzaron a presionar en 2023 para opinar sobre cómo la regulación podría afectar sus negocios incluyen al propietario de TikTok, ByteDance. tesla, Spotify, comprar, Pinterest, Samsung, Palantir, NVIDIA, buzón, Instacart, PuertaDashAntrópico y OpenAI.

Los cientos de organizaciones que presionaron a favor de la IA el año pasado abarcaron desde grandes empresas tecnológicas y de IA hasta empresas farmacéuticas, de seguros, financieras, académicas, de telecomunicaciones y más. Hasta 2017, el número de organizaciones que reportaron lobbying sobre IA se mantuvo en un solo dígito, según el análisis, pero la práctica ha crecido de manera lenta pero segura en los años posteriores, explotándose en 2023.

Más de 330 organizaciones que presionaron sobre la IA el año pasado no habían hecho lo mismo en 2022. Los datos mostraron que una variedad de industrias son nuevos participantes en el lobby de la IA: empresas de chips como AMD y TSMCempresas de riesgo como Andreessen Horowitz, compañías biofarmacéuticas como AstraZeneca, conglomerados como disney y empresas de datos de entrenamiento de IA Me gusta la aplicación.

Las organizaciones que informaron haber ejercido presión sobre cuestiones de IA el año pasado también suelen ejercer presión sobre el gobierno sobre una variedad de otras cuestiones. En total, informaron haber gastado un total de más de $ 957 millones presionando al gobierno federal en 2023 en temas que incluyen, entre otros, la inteligencia artificial, según OpenSecrets.

En octubre, el presidente Biden emitió una orden ejecutiva sobre la IA, la herramienta del gobierno de Estados Unidos. primera acción de este tipoque requieren nuevas evaluaciones de seguridad, orientación sobre equidad y derechos civiles e investigaciones sobre el impacto de la IA en el mercado laboral. La orden encargó al Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio de EE. UU. desarrollar pautas para evaluar ciertos modelos de IA, incluidos entornos de prueba para ellos, y estar parcialmente a cargo de desarrollar «estándares basados ​​en consenso» para la IA.

Después de la revelación de la orden ejecutiva, un frenesí de legisladores, grupos industriales, organizaciones de derechos civiles, sindicatos y otros comenzaron a profundizar en el documento de 111 páginas y a tomar nota de las prioridades, los plazos específicos y, a sus ojos, las implicaciones de amplio alcance. de la acción histórica.

Un debate central se ha centrado en la cuestión de la equidad de la IA. Muchos líderes de la sociedad civil dijeron a CNBC en noviembre que la orden no va lo suficientemente lejos como para reconocer y abordar los daños del mundo real que se derivan de los modelos de IA, especialmente aquellos que afectan a las comunidades marginadas. Pero dijeron que es un paso significativo en el camino.

Desde diciembre, el NIST ha estado recopilar comentarios públicos de empresas e individuos sobre la mejor manera de dar forma a estas reglas, con planes de finalizar el período de comentarios públicos después del viernes 2 de febrero. En su Solicitud de información, el Instituto pidió específicamente a los encuestados que opinaran sobre el desarrollo de estándares responsables de IA, el equipo rojo de IA. , gestionando los riesgos de la IA generativa y ayudando a reducir el riesgo de «contenido sintético» (es decir, información errónea y deepfakes).

Mary Catherine Wellons y Megan Cassella de CNBC contribuyeron con el reportaje.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *