El Pentágono lanza tecnología para evitar que las máquinas de matar impulsadas por IA se vuelvan rebeldes en el campo de batalla debido al «ruido» visual que engaña a los robots

El Pentágono lanza tecnología para evitar que las máquinas de matar impulsadas por IA se vuelvan rebeldes en el campo de batalla debido al «ruido» visual que engaña a los robots

Pentágono Los funcionarios han hecho sonar la alarma sobre «clases únicas de vulnerabilidades para AI o sistemas autónomos», que esperan que nuevas investigaciones puedan solucionar.

El programa, denominado Garantizar la robustez de la IA contra el engaño (GARD), tiene la tarea desde 2022 de identificar cómo los datos visuales u otras entradas de señales electrónicas para la IA podrían ser manipuladas mediante la introducción calculada de ruido.

Los científicos informáticos de uno de los contratistas de defensa de GARD han experimentado con parches caleidoscópicos diseñados para engañar a los sistemas basados ​​en inteligencia artificial para que creen identificaciones falsas.

«Básicamente, añadiendo ruido a una imagen o a un sensor, tal vez se pueda romper un algoritmo de aprendizaje automático», explicó el miércoles un alto funcionario del Pentágono que dirigió la investigación.

La noticia surge cuando se teme que el Pentágono haya estado «construyendo armas asesinas». robots en el sótano’ supuestamente han llevado a reglas de IA más estrictas para el ejército de EE. UU., que exigen que todos los sistemas deben ser aprobados antes de su despliegue.

Los científicos informáticos del contratista de defensa MITRE Corp. lograron crear un ruido visual que una IA confundió con manzanas en el estante de una tienda de comestibles, una bolsa dejada al aire libre e incluso personas.

Un autobús repleto de civiles, por ejemplo, podría ser identificado erróneamente como un tanque por una IA, si estuviera etiquetado con el «ruido visual» correcto, como propuso como ejemplo un reportero de seguridad nacional de ClearanceJobs. El programa del Pentágono ha gastado 51.000 dólares investigando desde 2022

«Con el conocimiento de ese algoritmo, a veces también es posible crear ataques físicamente realizables», añadió ese funcionario, Matt Turek, subdirector de la Oficina de Innovación de la Información de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA).

Técnicamente, es factible «engañar» al algoritmo de una IA para que cometa errores de misión crítica, haciendo que la IA identifique erróneamente una variedad de parches o pegatinas con dibujos como si fueran un objeto físico real que en realidad no existe.

Un autobús lleno de civiles, por ejemplo, podría ser identificado erróneamente como un tanque por una IA, si estuviera etiquetado con el «ruido visual» correcto, como dijo un reportero de seguridad nacional del sitio. LiquidaciónTrabajos propuesto como ejemplo.

En resumen, estas tácticas de «ruido» baratas y ligeras podrían provocar que una IA militar vital clasifique erróneamente a los combatientes enemigos como aliados, y viceversa, durante una misión crítica.

Los investigadores del programa GARD, de modesto presupuesto, han gastado 51.000 dólares investigando tácticas de ruido visual y de señales desde 2022. Auditorías del Pentágono espectáculo.

Un estudio de MITRE de 2020 ilustró cómo la IA puede interpretar el ruido visual, que puede parecer meramente decorativo o intrascendente a los ojos humanos, como un cartel del ‘Ojo Mágico’ de la década de 1990, como un objeto sólido. Arriba, el ruido visual de MITRE engaña a una IA para que vea manzanas

El subsecretario adjunto de Defensa para el Desarrollo de Fuerzas y Capacidades Emergentes de Estados Unidos, Michael Horowitz, explicó en un evento en enero que la nueva directiva del Pentágono «no prohíbe el desarrollo de ningún [AI] sistemas», pero «dejará claro lo que está y lo que no está permitido». Arriba, un robot asesino ficticio de la franquicia cinematográfica Terminator.

Lo que es público de su trabajo incluye un estudio de 2019 y 2020 que ilustra cómo el ruido visual, que puede parecer meramente decorativo o intrascendente para los ojos humanos, como un cartel de ‘Magic Eye’ de la década de 1990, puede ser interpretado como un objeto sólido por la IA.

Los científicos informáticos del contratista de defensa MITRE Corporation lograron crear un ruido visual que una IA confundió con manzanas en el estante de una tienda de comestibles, una bolsa dejada al aire libre e incluso personas.

«Ya sean ataques físicamente realizables o patrones de ruido que se agregan a los sistemas de inteligencia artificial», dijo Turek el miércoles, «el programa GARD ha construido defensas de última generación contra ellos».

‘Algunas de esas herramientas y capacidades han sido proporcionadas a CDAO [the Defense Department’s Chief Digital and AI Office],’ según Turek.

El Pentágono formó el CDAO en 2022; sirve como un centro para facilitar una adopción más rápida de la IA y tecnologías de aprendizaje automático relacionadas en todo el ejército.

El Departamento de Defensa (DoD) actualizó recientemente sus reglas sobre IA en medio de «mucha confusión sobre» cómo planea usar máquinas de toma de decisiones autónomas en el campo de batalla, según Michael, subsecretario adjunto de Defensa para Desarrollo de Fuerzas y Capacidades Emergentes de EE.UU. Horowitz

Horowitz explicó en un evento en enero que la «directiva no prohíbe el desarrollo de cualquier [AI] sistemas», pero «dejará claro lo que está permitido y lo que no está permitido» y defenderá un «compromiso con un comportamiento responsable», a medida que desarrolle sistemas autónomos letales.

Si bien el Pentágono cree que los cambios deberían tranquilizar al público, algunos han dicho que no están «convencidos» de los esfuerzos.

Mark Brakel, director de la organización de defensa Future of Life Institute (FLI), dijo a DailyMail.com en enero: «Estas armas conllevan un riesgo enorme de escalada involuntaria».

Explicó que las armas impulsadas por IA podrían malinterpretar algo, como un rayo de sol, y percibirlo como una amenaza, atacando así a potencias extranjeras sin causa y sin un «ruido visual» adversario intencional.

Brakel dijo que el resultado podría ser devastador porque «sin un control humano significativo, las armas impulsadas por IA son como el incidente del cohete noruego». [a near nuclear armageddon] «Toman esteroides y podrían aumentar el riesgo de accidentes en puntos críticos como el Estrecho de Taiwán».

Dailymail.com se ha puesto en contacto con el Departamento de Defensa para solicitar comentarios.

El Departamento de Defensa ha estado presionando agresivamente para modernizar su arsenal con drones autónomos, tanques y otras armas que seleccionan y atacan un objetivo sin intervención humana.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *