Estados Unidos pretende adelantarse a China en el uso de IA para volar aviones de combate, navegar sin GPS y más

Dos aviones de combate de la Fuerza Aérea se enfrentaron recientemente en un combate aéreo en California. Uno fue pilotado por un piloto. El otro no lo era.

Ese segundo avión fue pilotado por inteligencia artificial, con el civil de más alto rango de la Fuerza Aérea viajando en el asiento delantero. Fue la demostración definitiva de hasta qué punto ha llegado la Fuerza Aérea en el desarrollo de una tecnología con raíces en la década de 1950. Pero es sólo un indicio de la tecnología que está por llegar.

Estados Unidos está compitiendo para mantenerse por delante de China en IA y su uso en sistemas de armas. El enfoque en la IA ha generado preocupación pública de que las guerras futuras se librarán con máquinas que seleccionan y atacan objetivos sin intervención humana directa. Los funcionarios dicen que esto nunca sucederá, al menos no del lado estadounidense. Pero hay dudas sobre lo que permitiría un adversario potencial, y los militares no ven otra alternativa que desplegar rápidamente las capacidades estadounidenses.

“Ya sea que quieran llamarlo carrera o no, ciertamente lo es”, dijo el almirante Christopher Grady, vicepresidente del Estado Mayor Conjunto. “Ambos hemos reconocido que éste será un elemento muy crítico del futuro campo de batalla. China está trabajando en ello tan duro como nosotros”.

Una mirada a la historia del desarrollo militar de la IA, qué tecnologías están en el horizonte y cómo se mantendrán bajo control:

Las raíces de la IA en el ejército son en realidad un híbrido de aprendizaje automático y autonomía. El aprendizaje automático ocurre cuando una computadora analiza datos y conjuntos de reglas para llegar a conclusiones. La autonomía se produce cuando esas conclusiones se aplican para tomar medidas sin más aportación humana.

Esto tomó una forma temprana en los años 1960 y 1970 con el desarrollo del sistema de defensa antimisiles Aegis de la Armada. Aegis fue entrenado a través de una serie de conjuntos de reglas si/entonces programadas por humanos para poder detectar e interceptar misiles entrantes de forma autónoma y más rápidamente que un humano. Pero el sistema Aegis no fue diseñado para aprender de sus decisiones y sus reacciones se limitaron al conjunto de reglas que tenía.

«Si un sistema utiliza ‘si/entonces’ probablemente no sea aprendizaje automático, que es un campo de la IA que implica la creación de sistemas que aprenden a partir de datos», dijo el teniente coronel de la Fuerza Aérea Christopher Berardi, asignado al Instituto de Massachusetts. de Tecnología para ayudar con el desarrollo de la IA de la Fuerza Aérea.

La IA dio un gran paso adelante en 2012, cuando la combinación de big data y potencia informática avanzada permitió a las computadoras comenzar a analizar la información y escribir ellos mismos los conjuntos de reglas. Es lo que los expertos en IA han llamado el “big bang” de la IA.

Los nuevos datos creados por una computadora que escribe las reglas son inteligencia artificial. Los sistemas se pueden programar para actuar de forma autónoma a partir de las conclusiones alcanzadas a partir de reglas escritas por máquina, lo cual es una forma de autonomía habilitada por la IA.

El secretario de la Fuerza Aérea, Frank Kendall, probó ese combate avanzado este mes cuando voló en Vista, el primer avión de combate F-16 controlado por IA, en un ejercicio de combate aéreo sobre la Base de la Fuerza Aérea Edwards de California.

Si bien ese avión es la señal más visible del trabajo de IA en marcha, hay cientos de proyectos de IA en curso en todo el Pentágono.

En el MIT, los miembros del servicio trabajaron para borrar miles de horas de conversaciones de pilotos grabadas para crear un conjunto de datos a partir de la avalancha de mensajes intercambiados entre las tripulaciones y los centros de operaciones aéreas durante los vuelos, para que la IA pudiera aprender la diferencia entre mensajes críticos, como el cierre de una pista. y charlas mundanas en la cabina. El objetivo era que la IA aprendiera qué mensajes son fundamentales para elevar para garantizar que los controladores los vean más rápido.

En otro proyecto importante, el ejército está trabajando en una alternativa de IA a la navegación dependiente de satélites GPS.

En una guerra futura, los satélites GPS de alto valor probablemente serían atacados o interferidos. La pérdida del GPS podría cegar los sistemas bancarios, de navegación y de comunicación de Estados Unidos y hacer que la flota de aviones y buques de guerra del ejército estadounidense sea menos capaz de coordinar una respuesta.

Así que el año pasado la Fuerza Aérea puso a prueba un programa de inteligencia artificial (cargado en una computadora portátil atada al piso de un avión de carga militar C-17) para trabajar en una solución alternativa utilizando los campos magnéticos de la Tierra.

Se sabía que los aviones podían navegar siguiendo los campos magnéticos de la Tierra, pero hasta ahora eso no ha sido práctico porque cada avión genera tanto ruido electromagnético que no ha habido manera de filtrar solo las emisiones de la Tierra.

«Los magnetómetros son muy sensibles», dijo el coronel Garry Floyd, director del programa Acelerador de Inteligencia Artificial del Departamento de la Fuerza Aérea del MIT. «Si enciendes las luces estroboscópicas de un C-17, lo veríamos».

La IA aprendió a través de vuelos y montones de datos qué señales ignorar y cuáles seguir y los resultados «fueron muy, muy impresionantes», dijo Floyd. «Estamos hablando de calidad de lanzamiento aéreo táctico».

“Creemos que es posible que hayamos agregado una flecha al carcaj de las cosas que podemos hacer, en caso de que terminemos operando en un entorno sin GPS. Lo cual haremos”, dijo Floyd.

Hasta ahora, la IA sólo se ha probado en el C-17. También se probarán otros aviones y, si funcionan, podrían darle a los militares otra forma de operar si el GPS falla.

Vista, el F-16 controlado por IA, tiene considerables barreras de seguridad mientras lo entrena la Fuerza Aérea. Existen límites mecánicos que impiden que la IA, que aún está aprendiendo, ejecute maniobras que pondrían al avión en peligro. También hay un piloto de seguridad que puede tomar el control de la IA con solo presionar un botón.

El algoritmo no puede aprender durante un vuelo, por lo que cada vez que lo ejecuta solo tiene los datos y conjuntos de reglas que ha creado en vuelos anteriores. Cuando finaliza un nuevo vuelo, el algoritmo se transfiere nuevamente a un simulador donde se le suministran nuevos datos recopilados durante el vuelo para aprender, crear nuevos conjuntos de reglas y mejorar su rendimiento.

Pero la IA está aprendiendo rápido. Debido a la velocidad de supercomputación que utiliza la IA para analizar datos y luego ejecutar esos nuevos conjuntos de reglas en el simulador, su ritmo para encontrar la forma más eficiente de volar y maniobrar ya la ha llevado a vencer a algunos pilotos humanos en ejercicios de peleas de perros.

Pero la seguridad sigue siendo una preocupación crítica, y los funcionarios dijeron que la forma más importante de tenerla en cuenta es controlar qué datos se reinsertan en el simulador para que la IA aprenda de ellos. En el caso del avión, se trata de asegurarse de que los datos reflejen un vuelo seguro. En última instancia, la Fuerza Aérea espera que una versión de la IA que se está desarrollando pueda servir como cerebro para una flota de 1.000 aviones de combate no tripulados que están desarrollando General Atomics y Anduril.

En el experimento que entrena a la IA sobre cómo se comunican los pilotos, los miembros del servicio asignados al MIT limpiaron las grabaciones para eliminar información clasificada y el lenguaje a veces salado de los pilotos.

Aprender cómo se comunican los pilotos es “un reflejo del mando y control, de cómo piensan los pilotos. Las máquinas también necesitan entender eso si quieren volverse realmente buenas», dijo Grady, vicepresidente del Estado Mayor Conjunto. «No necesitan aprender a decir malas palabras».

© Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *