Una pequeña agencia federal de EE. UU. elabora estándares para hacer que la IA sea segura y confiable

Ninguna tecnología desde la fisión nuclear dará forma a nuestro futuro colectivo como la inteligencia artificial, por lo que es primordial que los sistemas de IA sean seguros, confiables y socialmente responsables.

Pero a diferencia de la bomba atómica, este cambio de paradigma ha sido impulsado casi por completo por el sector tecnológico privado, que se ha resistido a la regulación, por decir lo menos. Hay miles de millones en juego, lo que convierte la tarea de la administración Biden de establecer estándares para la seguridad de la IA en un desafío importante.

Para definir los parámetros, ha recurrido a una pequeña agencia federal, el Instituto Nacional de Estándares y Tecnología. Las herramientas y medidas del NIST definen productos y servicios, desde relojes atómicos hasta nanomateriales y tecnología de seguridad electoral.

Al frente de los esfuerzos de IA de la agencia está Elham Tabassi, asesor jefe de IA del NIST. Ella dirigió el Marco de Gestión de Riesgos de IA publicado hace 12 meses y que sentó las bases para la orden ejecutiva de IA del 30 de octubre de Biden. Catalogó tales riesgos como prejuicios contra los no blancos y amenazas a la privacidad.

Tabassi, nacida en Irán, llegó a Estados Unidos en 1994 para realizar su maestría en ingeniería eléctrica y poco después se unió al NIST. Es la arquitecta principal de un estándar que utiliza el FBI para medir la calidad de la imagen de las huellas dactilares.

Esta entrevista con Tabassi ha sido editada para mayor extensión y claridad.

P: Las tecnologías emergentes de IA tienen capacidades que sus creadores ni siquiera entienden. Ni siquiera existe un vocabulario acordado, la tecnología es muy nueva. Ha subrayado la importancia de crear un léxico sobre la IA. ¿Por qué?

R: La mayor parte de mi trabajo ha sido en visión por computadora y aprendizaje automático. También en este caso necesitábamos un léxico compartido para evitar desembocar rápidamente en un desacuerdo. Un mismo término puede significar cosas diferentes para diferentes personas. Hablar entre sí es particularmente común en campos interdisciplinarios como la IA.

P: Usted ha dicho que para que su trabajo tenga éxito necesita aportaciones no sólo de científicos e ingenieros informáticos, sino también de abogados, psicólogos y filósofos.

R: Los sistemas de IA son inherentemente sociotécnicos y están influenciados por los entornos y las condiciones de uso. Deben probarse en condiciones del mundo real para comprender los riesgos e impactos. Por eso necesitamos científicos cognitivos, científicos sociales y, sí, filósofos.

P: Esta tarea es una tarea difícil para una agencia pequeña, dependiente del Departamento de Comercio, que el Washington Post calificó de “notoriamente carente de fondos y personal”. ¿Cuántas personas en el NIST están trabajando en esto?

R: Primero, me gustaría decir que en el NIST tenemos una historia espectacular de interacción con comunidades amplias. Al elaborar el marco de riesgo de IA, escuchamos a más de 240 organizaciones distintas y obtuvimos alrededor de 660 conjuntos de comentarios públicos. En calidad de resultados e impacto, no parecemos pequeños. Tenemos más de una docena de personas en el equipo y nos estamos expandiendo.

P: ¿Crecerá el presupuesto del NIST desde los 1.600 millones de dólares actuales en vista de la misión de la IA?

R: El Congreso escribe los cheques por nosotros y estamos agradecidos por su apoyo.

P: La orden ejecutiva le da hasta julio para crear un conjunto de herramientas que garantice la seguridad y confiabilidad de la IA. Tengo entendido que usted llamó a eso “una fecha límite casi imposible” en una conferencia el mes pasado.

R: Sí, pero rápidamente agregué que no es la primera vez que enfrentamos este tipo de desafío, que tenemos un equipo brillante, estamos comprometidos y entusiasmados. En cuanto a la fecha límite, no es que estemos empezando desde cero. En junio reunimos un grupo de trabajo público centrado en cuatro conjuntos diferentes de pautas, incluida la autenticación de contenido sintético.

Pregunta: Los miembros del Comité de Ciencia y Tecnología de la Cámara de Representantes dijeron en una carta el mes pasado que se enteraron de que el NIST tiene la intención de otorgar subvenciones o premios a través de un nuevo instituto de seguridad de IA, lo que sugiere una falta de transparencia. R: De hecho, estamos explorando opciones para un proceso competitivo que respalde las oportunidades de investigación cooperativa. Nuestra independencia científica es realmente importante para nosotros. Si bien llevamos a cabo un proceso de participación masiva, somos los autores finales de todo lo que producimos. Nunca delegamos en nadie más.

P: Un consorcio creado para ayudar al instituto de seguridad de la IA puede generar controversia debido a la participación de la industria. ¿Qué deben aceptar los miembros del consorcio?

R: Publicamos una plantilla para ese acuerdo en nuestro sitio web a finales de diciembre. La apertura y la transparencia son una seña de identidad para nosotros. La plantilla está ahí.

P: El marco de riesgo de la IA era voluntario, pero la orden ejecutiva impone algunas obligaciones a los desarrolladores. Eso incluye presentar modelos en lenguaje extenso para el equipo rojo del gobierno (pruebas de riesgos y vulnerabilidades) una vez que alcancen un cierto umbral en tamaño y potencia informática. ¿Estará el NIST a cargo de determinar qué modelos forman parte del equipo rojo?

R: Nuestro trabajo es avanzar en la ciencia de medición y los estándares necesarios para este trabajo. Eso incluirá algunas evaluaciones. Esto es algo que hemos hecho con los algoritmos de reconocimiento facial. En cuanto a la asignación de tareas (el equipo rojo), el NIST no hará ninguna de esas cosas. Nuestro trabajo es ayudar a la industria a desarrollar estándares técnicamente sólidos y científicamente válidos. Somos una agencia no regulatoria, neutral y objetiva.

P: La forma en que se entrena a las IA y las barreras que se les colocan pueden variar ampliamente. Y, a veces, características como la ciberseguridad han pasado a segundo plano. ¿Cómo garantizamos que el riesgo se evalúe e identifique con precisión, especialmente cuando es posible que no sepamos en qué modelos publicados públicamente se han entrenado?

R: En el marco de gestión de riesgos de la IA, elaboramos una especie de taxonomía para la confiabilidad, destacando la importancia de abordarla durante el diseño, el desarrollo y la implementación, incluido el monitoreo y las evaluaciones periódicas durante los ciclos de vida de los sistemas de IA. Todo el mundo ha aprendido que no podemos darnos el lujo de intentar reparar los sistemas de IA una vez que ya no están en uso. Hay que hacerlo lo antes posible.

Y sí, mucho depende del caso de uso. Tome el reconocimiento facial. Una cosa es si lo uso para desbloquear mi teléfono. Un conjunto totalmente diferente de requisitos de seguridad, privacidad y precisión entra en juego cuando, por ejemplo, las fuerzas del orden lo utilizan para intentar resolver un delito. Las compensaciones entre conveniencia y seguridad, parcialidad y privacidad dependen del contexto de uso.

© Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *