Gran Bretaña amplía el instituto de seguridad de IA a San Francisco, sede de OpenAI

Una vista aérea del horizonte de la ciudad de San Francisco y el puente Golden Gate en California, 28 de octubre de 2021.

Carlos Barría | Reuters

LONDRES – El gobierno británico está ampliando sus instalaciones para probar modelos de inteligencia artificial «fronteriza» a los Estados Unidos, en un intento por promover su imagen como un actor global líder que aborda los riesgos de la tecnología y aumentar la cooperación con los EE. UU. a medida que los gobiernos de todo el mundo El mundo lucha por el liderazgo de la IA.

El gobierno anunció el lunes que abriría una contraparte estadounidense a su cumbre de seguridad de IA, un organismo respaldado por el estado centrado en probar sistemas avanzados de IA para garantizar su seguridad, que se celebrará en San Francisco este verano.

La versión estadounidense del AI Safety Institute tendrá como objetivo contratar un equipo de personal técnico encabezado por un director de investigación. En Londres, el instituto cuenta actualmente con un equipo de 30 personas. Está presidido por Ian Hogarth, un destacado empresario tecnológico británico que fundó el sitio de descubrimiento de conciertos musicales Songkick.

En una declaración, la ministra de Tecnología del Reino Unido, Michelle Donelan, dijo que el lanzamiento de la Cumbre de Seguridad de la IA en Estados Unidos «representa el liderazgo británico en IA en acción».

«Es un momento crucial en la capacidad del Reino Unido para estudiar tanto los riesgos como el potencial de la IA desde una perspectiva global, fortaleciendo nuestra asociación con los EE. UU. y allanando el camino para que otros países aprovechen nuestra experiencia mientras continuamos liderando el mundo en Seguridad de la IA.»

La expansión «permitirá al Reino Unido aprovechar la riqueza de talento tecnológico disponible en el Área de la Bahía, interactuar con los laboratorios de inteligencia artificial más grandes del mundo con sede en Londres y San Francisco, y consolidar las relaciones con los Estados Unidos para promover la seguridad de la inteligencia artificial para el público». interés», dijo el gobierno.

San Francisco es el hogar de OpenAI, el microsoftEmpresa respaldada por el chatbot de IA viral ChatGPT.

El Instituto de Seguridad de la IA se estableció en noviembre de 2023 durante la Cumbre de Seguridad de la IA, un evento global celebrado en Bletchley Park de Inglaterra, hogar de los descifradores de códigos de la Segunda Guerra Mundial, que buscaba impulsar la cooperación transfronteriza en materia de seguridad de la IA.

La expansión del AI Safety Institute a los EE. UU. se produce en vísperas de la Cumbre AI de Seúl en Corea del Sur, que se propuso por primera vez en la cumbre del Reino Unido en Bletchley Park el año pasado. La cumbre de Seúl tendrá lugar entre el martes y el miércoles.

El gobierno dijo que, desde que se estableció el Instituto de Seguridad de IA en noviembre, ha avanzado en la evaluación de modelos de IA de vanguardia de algunos de los principales actores de la industria.

El lunes dijo que varios modelos de IA completaron desafíos de ciberseguridad pero luchan por completar desafíos más avanzados, mientras que varios modelos demostraron conocimientos de química y biología a nivel de doctorado.

Mientras tanto, todos los modelos probados por el instituto siguieron siendo altamente vulnerables a los «jailbreaks», donde los usuarios los engañan para que produzcan respuestas que no están permitidas según sus pautas de contenido, mientras que algunos producirían resultados dañinos incluso sin intentos de eludir las salvaguardas.

Según el gobierno, los modelos probados tampoco pudieron completar tareas más complejas y que requerían más tiempo sin que hubiera seres humanos que las supervisaran.

No nombró los modelos de IA que se probaron. Anteriormente, el gobierno consiguió que OpenAI, DeepMind y Anthropic aceptaran abrir sus codiciados modelos de IA al gobierno para ayudar a informar la investigación sobre los riesgos asociados con sus sistemas.

Este acontecimiento se produce cuando Gran Bretaña ha enfrentado críticas por no introducir regulaciones formales para la IA, mientras que otras jurisdicciones, como la Unión Europea, se adelantan con leyes adaptadas a la IA.

Se espera que la histórica Ley de IA de la UE, que es la primera legislación importante de este tipo para la IA, se convierta en un modelo para las regulaciones globales de IA una vez que sea aprobada por todos los estados miembros de la UE y entre en vigor.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *