Las empresas de IA hacen una nueva promesa de seguridad en la cumbre de Seúl

Las principales empresas de inteligencia artificial hicieron un nuevo compromiso en una minicumbre el martes para desarrollar la IA de forma segura, mientras que los líderes mundiales acordaron construir una red de institutos de seguridad respaldados públicamente para avanzar en la investigación y prueba de la tecnología.

Google, Meta y OpenAI estuvieron entre las empresas que asumieron compromisos voluntarios de seguridad en la Cumbre de AI de Seúl, incluido desconectar sus sistemas de vanguardia si no pueden controlar los riesgos más extremos.

La reunión de dos días es una continuación de la Cumbre de Seguridad de la IA celebrada en noviembre en Bletchley Park, en el Reino Unido, y se produce en medio de una serie de esfuerzos por parte de gobiernos y organismos mundiales para diseñar barreras protectoras para la tecnología en medio de temores sobre el riesgo potencial que representa tanto a la vida cotidiana y a la humanidad.

Líderes de 10 países y la Unión Europea «forjarán un entendimiento común sobre la seguridad de la IA y alinearán su trabajo en la investigación de la IA», dijo en un comunicado el gobierno británico, que coorganizó el evento. La red de institutos de seguridad incluirá a aquellos ya establecido por el Reino Unido, Estados Unidos, Japón y Singapur desde la reunión de Bletchley, dijo.

El secretario general de la ONU, Antonio Guterres, dijo en la sesión inaugural que siete meses después de la reunión de Bletchley, “estamos viendo avances tecnológicos que cambian vidas y nuevos riesgos que amenazan vidas, desde la desinformación hasta la vigilancia masiva y la perspectiva de armas letales autónomas”.

El jefe de la ONU dijo en un discurso en video que es necesario que haya barreras de seguridad universales y un diálogo regular sobre la IA. «No podemos caminar sonámbulos hacia un futuro distópico en el que el poder de la IA esté controlado por unas pocas personas o, peor aún, por algoritmos que van más allá de la comprensión humana», afirmó.

Las 16 empresas de IA que firmaron los compromisos de seguridad también incluyen a Amazon, Microsoft, Samsung, IBM, xAI, la francesa Mistral AI, la china Zhipu.ai y el G42 de los Emiratos Árabes Unidos. Prometieron garantizar la seguridad de sus modelos de IA más avanzados con promesas de gobernanza responsable y transparencia pública.

No es la primera vez que las empresas de IA han asumido compromisos de seguridad que suenan elevados pero no son vinculantes. Amazon, Google, Meta y Microsoft formaron parte de un grupo que se adhirió el año pasado a salvaguardias voluntarias negociadas por la Casa Blanca para garantizar que sus productos sean seguros antes de lanzarlos.

La reunión de Seúl se produce cuando algunas de esas empresas lanzan las últimas versiones de sus modelos de IA.

El compromiso de seguridad incluye la publicación de marcos que establecen cómo las empresas medirán los riesgos de sus modelos. En casos extremos en los que los riesgos sean graves e «intolerables», las empresas de IA tendrán que apagar el interruptor y dejar de desarrollar o implementar sus modelos y sistemas si no pueden mitigar los riesgos.

Desde la reunión del año pasado en el Reino Unido, la industria de la IA se ha “centrado cada vez más en las preocupaciones más apremiantes, incluida la información errónea y desinformada, la seguridad de los datos, los prejuicios y el mantenimiento de los seres humanos informados”, dijo Aiden Gómez, director ejecutivo de Cohere, uno de los Empresas de IA que firmaron el pacto. «Es esencial que sigamos considerando todos los riesgos posibles, al mismo tiempo que priorizamos nuestros esfuerzos en aquellos que tienen más probabilidades de crear problemas si no se abordan adecuadamente».

Los gobiernos de todo el mundo han estado luchando por formular regulaciones para la IA incluso cuando la tecnología avanza rápidamente y está lista para transformar muchos aspectos de la vida diaria, desde la educación y el lugar de trabajo hasta los derechos de autor y la privacidad. Existe la preocupación de que los avances en la IA puedan eliminar puestos de trabajo, difundir desinformación o utilizarse para crear nuevas armas biológicas.

La reunión de esta semana es sólo uno de una serie de esfuerzos sobre la gobernanza de la IA. La Asamblea General de la ONU aprobó su primera resolución sobre el uso seguro de los sistemas de IA, mientras que Estados Unidos y China celebraron recientemente sus primeras conversaciones de alto nivel sobre IA y la primera Ley de IA del mundo de la Unión Europea entrará en vigor a finales de este año.

© Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *