La IA ya ha desarrollado una habilidad siniestra que, según los científicos, podría hacer que se convierta en una ‘espiral’

Muchas inteligencias artificiales (AI) los sistemas ya son hábiles para engañar y manipular a los humanos, y esto podría convertirse en una «espiral» en el futuro, advierten los expertos.

En años recientes, El uso de la IA ha crecido exponencialmente. pero algunos sistemas han aprendido a ser engañosos, incluso si han sido entrenados para ser útiles y honestos, han dicho los científicos.

En un artículo de revisión, un equipo del Massachusetts Institute of Technology describe los riesgos de engaño por parte de los sistemas de IA y pide a los gobiernos que desarrollen regulaciones estrictas para abordar este problema lo antes posible.

Los investigadores analizaron estudios anteriores que se centraron en las formas en que la IA difunde información falsa a través del engaño aprendido, lo que significa que aprendieron sistemáticamente a manipular a otros.

Un equipo del Instituto Tecnológico de Massachusetts describe los riesgos del engaño por parte de los sistemas de IA y pide a los gobiernos que desarrollen regulaciones estrictas para abordar este problema lo antes posible

El ejemplo más sorprendente de engaño de IA que descubrieron fue CICERO de Meta, un sistema diseñado para jugar el juego de conquista mundial Diplomacy que implica la construcción de alianzas.

Aunque la IA fue entrenada para ser «en gran medida honesta y servicial» y «nunca apuñalar intencionalmente por la espalda» a sus aliados humanos, los datos muestran que no jugó limpio y había aprendido a ser un maestro del engaño.

Otros sistemas de IA demostraron la capacidad de farolear en un juego de póquer Texas Hold ‘em contra jugadores humanos profesionales, fingir ataques durante el juego de estrategia Starcraft II para derrotar a los oponentes y tergiversar sus preferencias para ganar ventaja en negociaciones económicas.

Si bien puede parecer inofensivo que los sistemas de IA hagan trampa en los juegos, puede conducir a «avances en las capacidades engañosas de la IA» que pueden derivar en formas más avanzadas de engaño de la IA en el futuro, dijeron los expertos.

Descubrieron que algunos sistemas de inteligencia artificial incluso han aprendido a burlar las pruebas diseñadas para evaluar su seguridad.

En un estudio, los organismos de IA en un simulador digital «se hicieron los muertos» para engañar a una prueba diseñada para eliminar los sistemas de IA que se replican rápidamente.

Esto sugiere que la IA podría «llevar a los humanos a una falsa sensación de seguridad», dijeron los autores.

Advirtieron que los principales riesgos a corto plazo de una IA engañosa incluyen facilitar que las personas cometan fraude y alteren las elecciones.

Con el tiempo, si estos sistemas pueden perfeccionar este inquietante conjunto de habilidades, los humanos podrían perder el control sobre ellos, agregaron.

El primer autor, Peter Park, experto en seguridad existencial de la IA, afirmó: «Los desarrolladores de IA no tienen una comprensión segura de las causas de comportamientos indeseables de la IA, como el engaño».

«Pero en términos generales, creemos que el engaño de la IA surge porque una estrategia basada en el engaño resultó ser la mejor manera de desempeñarse bien en la tarea de entrenamiento de la IA determinada. El engaño les ayuda a lograr sus objetivos.

«Nosotros, como sociedad, necesitamos todo el tiempo posible para prepararnos para el engaño más avanzado de los futuros productos de IA y modelos de código abierto.

«A medida que las capacidades engañosas de los sistemas de IA se vuelvan más avanzadas, los peligros que plantean para la sociedad serán cada vez más graves».

Al comentar sobre la revisión, el Dr. Heba Sailem, jefe del Grupo de Investigación de Ciencia de Datos e IA Biomédica, dijo: «Este documento subraya consideraciones críticas para los desarrolladores de IA y enfatiza la necesidad de regular la IA.

‘Una preocupación importante es que los sistemas de IA puedan desarrollar estrategias engañosas, incluso cuando su entrenamiento esté dirigido deliberadamente a defender estándares morales.

«A medida que los modelos de IA se vuelven más autónomos, los riesgos asociados con estos sistemas pueden aumentar rápidamente.

«Por lo tanto, es importante concienciar y ofrecer formación sobre los riesgos potenciales a las distintas partes interesadas para garantizar la seguridad de los sistemas de IA».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *