La cumbre de seguridad de la IA y sus críticos

La cumbre de seguridad de la IA y sus críticos

La Cumbre de Seguridad de la IA de la semana pasada en el Reino Unido fue, Según sus participantes, fue un gran éxito, pero los críticos acusan a esos líderes de vivir en un mundo de fantasía.

Esos críticos son parte de la creciente brecha en la comunidad de IA sobre cuánto centrarse en el riesgo “existencial” de los modelos “de frontera” que posiblemente podrían, bueno… acabar con el mundo. La comunidad política de IA se encuentra en una encrucijada que determinará si el futuro de la tecnología se gobierna teniendo en cuenta los riesgos sociales aquí y ahora o con la vista puesta en un futuro de ciencia ficción en el que las ideas sobre la gobernanza se trastornan de manera efectiva, mientras cada lado afirma que su visión de la tecnología abarca ambos riesgos.

«Es decepcionante ver que algunos de los países más poderosos del mundo dan prioridad a riesgos que no se pueden demostrar ni falsificar», dijo en un correo electrónico el director de políticas de Datos y Sociedad, Brian Chen. «Los países están dedicando enormes recursos institucionales a investigar afirmaciones existenciales que no pueden sostenerse según los principios básicos de la investigación empírica».

En otras palabras, la lucha por la IA debería centrarse menos en prevenir SkyNet de matarnos y más sobre proteger a los consumidores de algoritmos opacos que deciden rechazar un préstamo hipotecario o rechazar la cobertura de un procedimiento médico. Chen y sus pares creen que el gobierno tiene un papel que desempeñar en la seguridad de la IA. Pero el más mínimo olor a “doomerismo” en Silicon Valley genera temor de que los mayores desarrolladores de IA estén tratando de consolidar su dominio en el campo ocultando las amenazas actuales a expensas de las hipotéticas.

Amba Kak del AI Now Institute, uno de los pocos representantes de la sociedad civil en la cumbre de la semana pasada, dijo al concluir el evento que “corremos el riesgo de afianzar aún más el dominio de un puñado de actores privados sobre nuestra economía y nuestras instituciones sociales”. En sus comentarios, Kak reconoció los esfuerzos de la administración Biden para fomentar la competencia justa y corregir el sesgo en la IA, pero dijo que las reuniones futuras deberían incluir voces de toda la sociedad, no solo de las mayores empresas de tecnología y líderes gubernamentales.

Algunos grupos ven la seguridad de la IA actual y una industria competitiva abierta a nuevos actores que están inextricablemente emparejados. Mark Surman, presidente de la Fundación Mozilla, y la investigadora Camille François dijeron en un publicación de blog de ayer que “la competencia es un antídoto” para lo que consideran la naturaleza antidemocrática de los actuales debates sobre políticas de IA, dominados por gigantes de la industria.

Hacen hincapié en poner las herramientas de desarrollo de IA a disposición de todos, acusando a actores importantes como OpenAI de utilizar “el miedo al riesgo existencial para proponer enfoques eso cerraría la IA de código abierto”. (Una “declaración conjunta” publicada en Halloween con las firmas de Surman, François y nada menos que el jefe de Meta AI, Yann LeCun, pidió hacer del desarrollo de la IA de código abierto una “prioridad global”).

Como aludió Kak, algunos líderes en Estados Unidos se han pronunciado sobre estos temas. La vicepresidenta Kamala Harris fue franco en la cumbre de la semana pasada al instar a otros líderes globales y empresas de inteligencia artificial a priorizar los riesgos aquí y ahora de la discriminación algorítmica. La presidenta de la Comisión Federal de Comercio, Lina Khan, escribió en el New York Times en mayo que “la creciente adopción de la IA corre el riesgo de bloquear aún más el dominio del mercado de las grandes empresas tecnológicas existentes”, e instó a tomar decisiones políticas antimonopolísticas similares a las que pedía Mozilla.

La administración Biden orden ejecutiva abordó esos temas, ordenando específicamente a la FTC de Khan que investigara las prácticas monopolísticas en IA, estableciendo protecciones de privacidad para los usos gubernamentales de la IA y ordenando al Departamento de Vivienda y Desarrollo Urbano que proporcionara orientación para detener los sistemas de IA discriminatorios en los préstamos. El La propia Declaración de Bletchley profundiza tanto en el riesgo humano inmediato como en las predicciones funestas del modelo de apocalipsis por frontera.

Aún así, para algunos en el exterior de la industria y el gobierno que han estudiado las luchas políticas de la época pasada en tecnología, creerán que los gigantes de la IA aceptarán voluntariamente la responsabilidad por los daños potenciales de sus productos cuando los vean.

«Necesitamos una visión más holística y centrada en el ser humano de los sistemas de IA: su impacto en los trabajadores, su extracción de datos, su consumo masivo de energía y agua», dijo Chen. «Esto faltaba en la cumbre de la semana pasada».

Meta hizo otro ajuste a cómo Vigilará los anuncios y el contenido políticos en sus plataformas.

La compañía anunció en un publicación de blog de hoy que revelará a los usuarios cuando el contenido sea creado o modificado mediante IA generativa u otras herramientas digitales.

A partir de “el nuevo año”, los anunciantes deberán revelar cuándo utilizan contenido generado por IA para representar eventos o discursos que en realidad no sucedieron en el contexto de un debate político de la vida real. Luego, Meta notificará a los espectadores que los anunciantes hicieron una de estas divulgaciones voluntarias y, si los anunciantes no lo hacen, Meta eliminará el anuncio con «sanciones» por no divulgarlo repetidamente.

Investigadores de la Universidad de California Berkeley publicaron un informe hoy que establece estándares amplios para evaluar los riesgos en los sistemas de IA.

El documento de 118 páginas establece mejores prácticas destinadas a complementar las establecidas por el Instituto Nacional de Estándares y Tecnología y el Organización Internacional de Normalización.

«Pretendemos que este documento de perfil sea utilizado principalmente por desarrolladores de GPAIS de última generación a gran escala», escriben los autores, diciendo que «tiene como objetivo ayudar a los actores clave… a lograr resultados que maximicen los beneficios y minimicen los impactos negativos, a individuos, comunidades, organizaciones, sociedad y el planeta”, incluida “la protección de los derechos humanos, la minimización de los impactos ambientales negativos y la prevención de eventos adversos con consecuencias sistémicas o catastróficas a escala social”.

Las recomendaciones clave incluyen el establecimiento de umbrales de tolerancia al riesgo para el uso de la IA, el uso de equipo rojo y pruebas adversas, e involucrar a actores externos y usuarios del sistema en el proceso de identificación de riesgos.