Merchant: ¿Cómo utiliza Israel la IA militar en los ataques a Gaza?

Merchant: ¿Cómo utiliza Israel la IA militar en los ataques a Gaza?

El La niebla de guerra se ha espesado en Gazauna invasión terrestre está cobrando fuerza y ​​los bombardeos aéreos continúan a un ritmo vertiginoso. El martes, Misiles impactaron en un campo de refugiados. en Jabaliya, donde las Fuerzas de Defensa de Israel dijeron que estaba estacionado un alto líder de Hamas, matando a decenas de civiles.

Debate sobre la crisis se enfurece en línea Y de vez en cuando, sin embargo, a pesar de todo el discurso, hay una pregunta persistente que no he visto ampliamente considerada: ¿Hasta qué punto Israel depende de la inteligencia artificial y los sistemas de armas automatizados para seleccionar y atacar objetivos?

Sólo en la primera semana de su asalto, el fuerza aérea israelí dijo que había lanzado 6.000 bombas a lo largo de Gaza, un territorio de 140 millas cuadradas (una décima parte del tamaño del estado más pequeño de Estados Unidos, Rhode Island) y que se encuentra entre los lugares más densamente poblados del mundo. Desde entonces ha habido muchos miles de explosiones más.

Israel comanda el ejército más poderoso y de mayor tecnología de Medio Oriente. Meses antes de los horribles ataques de Hamás el 7 de octubre, las FDI anunciaron que iban a incorporar IA en operaciones letales. Como Bloomberg informó el 15 de julioA principios de este año, las FDI habían comenzado a “utilizar inteligencia artificial para seleccionar objetivos para ataques aéreos y organizar la logística en tiempos de guerra”.

Los funcionarios israelíes dijeron en ese momento que las FDI empleaban un sistema de recomendación de IA para elegir objetivos para los bombardeos aéreos, y otro modelo que luego se usaría para organizar rápidamente las siguientes incursiones. Las FDI llaman a este segundo sistema Fire Factory y, según Bloomberg, “utiliza datos sobre objetivos aprobados por el ejército para calcular cargas de municiones, priorizar y asignar miles de objetivos a aviones y drones, y proponer un cronograma”.

En respuesta a una solicitud de comentarios, un portavoz de las FDI se negó a discutir el uso militar de la IA en el país.

En un año en el que la IA ha dominado los titulares de todo el mundo, este elemento del conflicto ha sido curiosamente subexaminado. Dadas las innumerables cuestiones prácticas y éticas que siguen rodeando a esta tecnología, se debe presionar a Israel sobre cómo está implementando la IA.

«Los sistemas de IA son notoriamente poco confiables y frágiles, particularmente cuando se los coloca en situaciones que son diferentes de sus datos de entrenamiento», dijo Paul Scharre, vicepresidente del Centro para una Nueva Seguridad Estadounidense y autor de «Cuatro campos de batalla: el poder en la era de la inteligencia artificial». Scharre dijo que no estaba familiarizado con los detalles del sistema específico que las FDI podrían estar usando, pero que la IA y la automatización que ayudaron en los ciclos de selección de objetivos probablemente se usarían en escenarios como la búsqueda de personal y material de Hamas por parte de Israel en Gaza. El uso de la IA en el campo de batalla está avanzando rápidamente, afirmó, pero conlleva riesgos importantes.

«Cualquier IA que esté involucrada en decisiones de selección de objetivos, un riesgo importante es que acierte al objetivo equivocado», dijo Scharre. «Podría estar causando víctimas civiles o atacando objetivos amigos y provocando fratricidio».

Una de las razones por las que resulta algo sorprendente que no hayamos visto más debates sobre el uso de la IA militar por parte de Israel es que las FDI han estado promocionando su inversión y adopción de la IA durante años.

En 2017, el brazo editorial de las FDI proclamó que «Las FDI ven la inteligencia artificial como la clave para la supervivencia moderna». En 2018, las FDI alardeó que sus “máquinas están siendo más astutas que los humanos”. En ese artículo, el entonces director de Sigma, la rama de las FDI dedicada a investigar, desarrollar e implementar IA, la teniente coronel Nurit Cohen Inger escribió que “Cada cámara, cada tanque y cada soldado produce información de forma regular, los siete días de la semana, las 24 horas del día”.

«Entendemos que hay capacidades que una máquina puede adquirir y que un hombre no puede», continuó Nurit. «Estamos introduciendo lentamente la inteligencia artificial en todas las áreas de las FDI, desde la logística y la mano de obra hasta la inteligencia».

Las FDI llegaron incluso a llamar a su último conflicto con Hamás en Gaza, en 2021, la “primera guerra de inteligencia artificial”, con los líderes de las FDI promocionando las ventajas que confería su tecnología para combatir a Hamás. «Por primera vez, la inteligencia artificial fue un componente clave y un multiplicador de poder en la lucha contra el enemigo», dijo un alto oficial del Cuerpo de Inteligencia de las FDI al Jerusalem Post. Un comandante de la unidad de ciencia de datos e inteligencia artificial de las FDI dijo que los sistemas de inteligencia artificial habían ayudado al ejército a apuntar y eliminar a dos líderes de Hamas en 2021, según el cargo.

Las FDI dicen que los sistemas de IA se han integrado oficialmente en operaciones letales desde principios de este año. Dice que los sistemas permiten a los militares procesar datos y localizar objetivos más rápido y con mayor precisión, y que cada objetivo es revisado por un operador humano.

Sin embargo, los académicos del derecho internacional en Israel han expresado su preocupación sobre la legalidad del uso de tales herramientas, y a los analistas les preocupa que representen un avance hacia armas más completamente autónomas y advierten que existen riesgos inherentes al entregar los sistemas de objetivos a la IA.

Después de todo, muchos sistemas de IA son cada vez más cajas negras cuyos algoritmos no se comprenden bien y están ocultos a la vista del público. En un artículo sobre la adopción de la IA por parte de las FDI Para el Instituto Lieber, los académicos de derecho de la Universidad Hebrea Tal Mimran y Lior Weinstein enfatizan los riesgos de depender de sistemas automatizados opacos capaces de provocar la pérdida de vidas humanas. (Cuando Mimran sirvió en las FDI, revisó los objetivos para asegurarse de que cumplieran con el derecho internacional).

«Mientras las herramientas de IA no sean explicables», escriben Mimran y Weinstein, «en el sentido de que no podemos entender completamente por qué llegaron a cierta conclusión, ¿cómo podemos justificarnos a nosotros mismos si debemos confiar en la decisión de la IA cuando hay vidas humanas en juego?» ?” Continúan: “Si uno de los ataques producidos por la herramienta de IA causa daños significativos a civiles no involucrados, ¿quién debería asumir la responsabilidad de la decisión?”

Una vez más, las FDI no me explicaron exactamente cómo utilizan la IA, y el funcionario le dijo a Bloomberg que un humano revisó la salida del sistema, pero que solo tomó unos minutos hacerlo. (“Lo que antes tomaba horas ahora toma minutos, con unos minutos más para la revisión humana”, dijo el jefe de transformación digital del ejército).

Hay una serie de preocupaciones aquí, dado lo que sabemos sobre el estado actual del arte de los sistemas de IA, y es por eso que vale la pena presionar a las FDI para que revelen más sobre cómo los utilizan actualmente.

Por un lado, los sistemas de IA permanecen codificados con prejuiciosy, si bien suelen ser buenos para analizar grandes cantidades de datos, habitualmente producen resultados propensos a errores cuando se les pide que extrapolen a partir de esos datos.

«Una diferencia realmente fundamental entre la IA y un analista humano al que se le asigna exactamente la misma tarea», dijo Scharre, «es que los humanos hacen un muy buen trabajo al generalizar desde un pequeño número de ejemplos hasta situaciones novedosas, y los sistemas de IA tienen muchas dificultades para lograrlo». generalizar a situaciones novedosas”.

Un ejemplo: incluso se ha demostrado una y otra vez que la tecnología de reconocimiento facial supuestamente de vanguardia, como la utilizada por los departamentos de policía estadounidenses, es menos precisa a la hora de identificar a las personas de color, lo que ha dado lugar a que los sistemas Tocando a ciudadanos inocentes y conduciendo a arrestos injustos.

Además, cualquier sistema de inteligencia artificial que busque automatizar (y acelerar) la selección de objetivos aumenta la posibilidad de que los errores cometidos en el proceso sean más difíciles de discernir. Y si los militares mantienen en secreto el funcionamiento de sus sistemas de inteligencia artificial, no hay manera de evaluar el tipo de errores que están cometiendo. «Creo que los militares deberían ser más transparentes en la forma en que evalúan o abordan la IA», dijo Scharre. “Una de las cosas que hemos visto en los últimos años en Libia o Ucrania es una zona gris. Habrá acusaciones de que se está utilizando IA, pero los algoritmos o los datos de entrenamiento son difíciles de descubrir, y eso hace que sea muy difícil evaluar lo que están haciendo los militares”.

Incluso con esos errores incorporados en el código de eliminación, la IA podría, mientras tanto, dar un barniz de credibilidad a objetivos que de otro modo no serían aceptables para los operadores de base.

Finalmente, los sistemas de inteligencia artificial pueden crear una falsa sensación de confianza, lo que tal vez fue evidente en cómo, a pesar de tener en Gaza el mejor sistema de vigilancia potenciado por inteligencia artificial, Israel no detectó la planificación de la masacre brutal y altamente coordinada. el 7 de octubre.

Como informa Reuters Peter Apps tomó nota“El 27 de septiembre, apenas una semana antes de que los combatientes de Hamas lanzaran el mayor ataque sorpresa contra Israel desde la guerra de Yom Kippur de 1973, funcionarios israelíes tomaron la presidencia del comité militar de la OTAN en la frontera de Gaza para demostrar su uso de inteligencia artificial y alta tecnología. vigilancia. … Desde aviones teledirigidos que utilizan software de reconocimiento facial hasta puestos de control fronterizos y escuchas electrónicas de las comunicaciones, la vigilancia israelí de Gaza se considera ampliamente entre los esfuerzos más intensos y sofisticados que existen”.

Sin embargo, nada de eso ayudó a detener a Hamás.

“El error ha sido, en las últimas dos semanas, decir que esto fue una falla de inteligencia. No lo fue, fue un fracaso político”, dijo Antony Loewenstein, periodista independiente y autor de “El laboratorio palestino” que estuvo basado en Jerusalén Este entre 2016 y 2020. “El enfoque de Israel había estado en Cisjordania, creyendo que tenían a Gaza rodeada. Creían erróneamente que las tecnologías más sofisticadas por sí solas lograrían mantener controlada y ocupada a la población palestina”.

Ésa puede ser una de las razones por las que Israel se ha mostrado reacio a discutir sus programas de IA. Otro puede ser que un argumento clave de venta de la tecnología a lo largo de los años, que la IA ayudará a elegir objetivos con mayor precisión y reducir las víctimas civiles, actualmente no parece creíble. «La afirmación de la IA se ha centrado en apuntar a las personas con más éxito», dijo Loewenstein. “Pero no ha sido un objetivo concreto en absoluto; Hay un gran número de civiles muriendo. Un tercio de las viviendas en Gaza han sido destruidas. Eso no es un objetivo preciso”.

Y ese es el temor aquí: que la IA pueda usarse para acelerar o habilitar la capacidad destructiva de una nación que se convulsiona de rabia, con errores potencialmente mortales en sus algoritmos oscurecidos por la niebla de la guerra.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *