Cosas que debe saber sobre una cumbre sobre seguridad de la IA en Seúl
Corea del Sur organizará una minicumbre el martes y miércoles sobre riesgos y regulación de la inteligencia artificial, después de una reunión inaugural sobre seguridad de la IA en Gran Bretaña el año pasado que atrajo a una multitud diversa de luminarias tecnológicas, investigadores y funcionarios.
La reunión en Seúl tiene como objetivo aprovechar el trabajo iniciado en la reunión del Reino Unido para controlar las amenazas que plantean los sistemas de inteligencia artificial de última generación.
Esto es lo que necesita saber sobre la Cumbre AI de Seúl y las cuestiones de seguridad de la IA.
¿QUÉ ESFUERZOS INTERNACIONALES SE HAN REALIZADO EN MATERIA DE SEGURIDAD DE LA IA?
La cumbre de Seúl es uno de los muchos esfuerzos globales para crear barreras protectoras para la tecnología que avanza rápidamente y que promete transformar muchos aspectos de la sociedad, pero también ha generado preocupaciones sobre nuevos riesgos tanto para la vida cotidiana como el sesgo algorítmico que distorsiona los resultados de búsqueda y posibles amenazas existenciales. a la humanidad.
En la cumbre del Reino Unido de noviembre, celebrada en una antigua base secreta de descifrado de códigos en tiempos de guerra en Bletchley, al norte de Londres, investigadores, líderes gubernamentales, ejecutivos de tecnología y miembros de grupos de la sociedad civil, muchos de ellos con puntos de vista opuestos sobre la IA, se reunieron en conversaciones a puerta cerrada. El director ejecutivo de Tesla, Elon Musk, y el director ejecutivo de OpenAI, Sam Altman, se mezclaron con políticos como el primer ministro británico, Rishi Sunak.
Delegados de más de dos docenas de países, incluidos Estados Unidos y China, firmaron la Declaración de Bletchley y acordaron trabajar juntos para contener los riesgos potencialmente “catastróficos” que plantean los avances galopantes en inteligencia artificial.
En marzo, la Asamblea General de la ONU aprobó su primera resolución sobre inteligencia artificial, brindando apoyo a un esfuerzo internacional para garantizar que la nueva y poderosa tecnología beneficie a todas las naciones, respete los derechos humanos y sea “segura y digna de confianza”.
A principios de este mes, Estados Unidos y China celebraron sus primeras conversaciones de alto nivel sobre inteligencia artificial en Ginebra para discutir cómo abordar los riesgos de esta tecnología en rápida evolución y establecer estándares compartidos para gestionarla. Allí, los funcionarios estadounidenses expresaron su preocupación por el “uso indebido de la IA” por parte de China, mientras que los representantes chinos reprendieron a los EE.UU. por las “restricciones y presiones” sobre la inteligencia artificial, según sus gobiernos.
¿QUÉ SE DISCUTARÁ EN LA CUMBRE DE SEÚL?
La reunión del 21 y 22 de mayo está copatrocinada por los gobiernos de Corea del Sur y el Reino Unido.
El primer día, el martes, el presidente surcoreano, Yoon Suk Yeol, y Sunak se reunirán virtualmente con los líderes. Se ha invitado a algunos líderes de la industria global a brindar actualizaciones sobre cómo han cumplido los compromisos asumidos en la cumbre de Bletchley para garantizar la seguridad de sus modelos de IA.
El segundo día, los ministros digitales se reunirán en persona para una reunión organizada por el Ministro de Ciencia de Corea del Sur, Lee Jong-ho, y la Secretaria de Tecnología de Gran Bretaña, Michelle Donelan. Los participantes compartirán mejores prácticas y planes de acción concretos. También compartirán ideas sobre cómo proteger a la sociedad de los impactos potencialmente negativos de la IA en áreas como el uso de energía, los trabajadores y la proliferación de información errónea y desinformación, según los organizadores.
La reunión ha sido denominada una mini cumbre virtual, que sirve como reunión provisional hasta que París celebre una edición presencial completa a finales de este año.
La reunión de ministros digitales incluirá representantes de países como Estados Unidos, China, Alemania, Francia y España y empresas como OpenAI, fabricante de ChatGPT, Google, Microsoft y Anthropic.
¿QUÉ PROGRESOS HAN LOGRADO LOS ESFUERZOS DE SEGURIDAD DE LA IA?
El acuerdo alcanzado en la reunión del Reino Unido fue escaso en detalles y no propuso una forma de regular el desarrollo de la IA.
“Estados Unidos y China asistieron a la última cumbre. Pero cuando miramos algunos principios anunciados después de la reunión, eran similares a los que ya se habían anunciado después de algunas reuniones de la ONU y la OCDE”, dijo Lee Seong-yeob, profesor de la Escuela de Graduados en Gestión de Tecnología de la Universidad de Corea de Seúl. «No había nada nuevo.»
Es importante celebrar una cumbre mundial sobre cuestiones de seguridad de la IA, dijo, pero será «considerablemente difícil» para todos los participantes llegar a acuerdos, ya que cada país tiene diferentes intereses y diferentes niveles de tecnologías e industrias nacionales de IA.
La reunión se lleva a cabo mientras Meta, OpenAI y Google lanzan las últimas versiones de sus modelos de IA.
La Cumbre de Seguridad de IA original fue concebida como un lugar para discutir soluciones para los llamados riesgos existenciales que plantean los “modelos básicos” más poderosos que sustentan los sistemas de IA de propósito general como ChatGPT.
El científico informático pionero Yoshua Bengio, apodado uno de los “padrinos de la IA”, fue elegido en la reunión del Reino Unido para dirigir un panel de expertos encargado de redactar un informe sobre el estado de la seguridad de la IA. Una versión provisional del informe publicado el viernes para informar los debates en Seúl identificó una serie de riesgos que plantea la IA de propósito general, incluido su uso malicioso para aumentar la «escala y la sofisticación» de fraudes y estafas, potenciar la difusión de desinformación o crear nuevas armas biológicas.
El mal funcionamiento de los sistemas de IA podría propagar sesgos en áreas como la atención sanitaria, la contratación laboral y los préstamos financieros, mientras que el potencial de la tecnología para automatizar una gran variedad de tareas también plantea riesgos sistémicos para el mercado laboral, según el informe.
Corea del Sur espera aprovechar la cumbre de Seúl para tomar la iniciativa en la formulación de normas y gobernanza global para la IA. Pero algunos críticos dicen que el país carece de una infraestructura de inteligencia artificial lo suficientemente avanzada como para desempeñar un papel de liderazgo en tales cuestiones de gobernanza.
© Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.