Estados Unidos presenta un memorando de seguridad nacional sobre la IA

Estados Unidos dio a conocer el jueves un marco para abordar los riesgos de seguridad nacional que plantea la inteligencia artificial, un año después de que el presidente Joe Biden emitiera una orden ejecutiva para regular la tecnología.

El Memorando de Seguridad Nacional (NSM) busca enhebrar la balanza entre aprovechar la tecnología para contrarrestar el uso militar de la IA por parte de adversarios como China y al mismo tiempo construir salvaguardias efectivas que mantengan la confianza pública, dijeron los funcionarios.

«Hay aplicaciones de seguridad nacional muy claras de la inteligencia artificial, incluso en áreas como la ciberseguridad y la contrainteligencia», dijo a los periodistas un alto funcionario de la administración Biden.

«Países como China reconocen oportunidades similares para modernizar y revolucionar sus propias capacidades militares y de inteligencia.

«Es particularmente imperativo que aceleremos la adopción y el uso de capacidades de inteligencia artificial de vanguardia en nuestras comunidades de seguridad nacional para mantener nuestra ventaja competitiva».

En octubre pasado, Biden ordenó al Consejo de Seguridad Nacional y al Jefe de Gabinete de la Casa Blanca que desarrollaran el memorando.

La instrucción se produjo cuando emitió una orden ejecutiva sobre la regulación de la IA, con el objetivo de que Estados Unidos «lidere el camino» en los esfuerzos globales para gestionar los riesgos de la tecnología.

La orden, aclamada por la Casa Blanca como una medida «histórica», ordenó a las agencias federales que establecieran nuevos estándares de seguridad para los sistemas de inteligencia artificial y exigió a los desarrolladores que compartieran los resultados de sus pruebas de seguridad y otra información crítica con el gobierno de Estados Unidos.

Los funcionarios estadounidenses esperan que la tecnología de inteligencia artificial en rápida evolución desate una competencia militar y de inteligencia entre las potencias globales.

Se estaba ordenando a las agencias de seguridad estadounidenses que obtuvieran acceso a los «sistemas de inteligencia artificial más poderosos», lo que implica esfuerzos sustanciales en materia de adquisiciones, dijo un segundo funcionario de la administración.

«Creemos que debemos superar a nuestros adversarios y mitigar las amenazas que plantea el uso de la IA por parte de nuestros adversarios», dijo el funcionario a los periodistas.

El NSM, añadió, busca garantizar que el gobierno esté «acelerando la adopción de manera inteligente y responsable».

Además del memorando, el gobierno publicará un documento marco que proporciona orientación sobre «cómo las agencias pueden y no pueden utilizar la IA», dijo el funcionario.

En julio, más de una docena de grupos de la sociedad civil, como el Centro para la Democracia y la Tecnología, enviaron una carta abierta a los funcionarios de la administración Biden, incluido el asesor de seguridad nacional Jake Sullivan, pidiendo que se incorporaran salvaguardias sólidas en el NSM.

«A pesar de las promesas de transparencia, se sabe poco sobre la IA que están desplegando las entidades de inteligencia, seguridad nacional y aplicación de la ley más grandes del país, como el Departamento de Seguridad Nacional, la Oficina Federal de Investigaciones, la Agencia de Seguridad Nacional y la Agencia Central de Inteligencia», dijo el informe. decía la carta.

«Su despliegue en contextos de seguridad nacional también corre el riesgo de perpetuar los prejuicios raciales, étnicos o religiosos y afianzar las violaciones de la privacidad, los derechos civiles y las libertades civiles».

Sullivan resaltará el NSM en un discurso en la Universidad de Defensa Nacional en Washington el jueves, dijeron los funcionarios.

La mayor parte del memorando no está clasificado y se hará público, aunque también contiene un anexo clasificado que aborda principalmente las amenazas del adversario, agregaron.

© 2024 AFP

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *