Meta dice que el engaño de la IA generativa está bajo control, por ahora

El gigante de las redes sociales Meta dice que su intento de frustrar las campañas coordinadas de desinformación creadas mediante una IA generativa en constante mejora está funcionando, a pesar de las preocupaciones generalizadas.

El último estudio de Meta sobre el «comportamiento no auténtico coordinado» en sus plataformas se produce mientras aumentan los temores de que la IA generativa se utilice para engañar o confundir a la gente en las próximas elecciones en todo el mundo, especialmente en los Estados Unidos.

«Lo que hemos visto hasta ahora es que las defensas existentes de nuestra industria, incluido nuestro enfoque en el comportamiento más que en el contenido para contrarrestar las amenazas adversas, ya se aplican y parecen ser efectivas», dijo David Agranovich, director de políticas de interrupción de amenazas de Meta. «No estamos viendo que la IA generativa se utilice de maneras terriblemente sofisticadas, pero sabemos que estas redes seguirán evolucionando sus tácticas a medida que esta tecnología cambie».

Facebook ha sido acusado durante años de ser utilizado como una poderosa plataforma para la desinformación electoral.

Los agentes rusos utilizaron Facebook y otras redes sociales estadounidenses para provocar tensiones políticas en las elecciones de 2016 ganadas por Donald Trump. La Unión Europea está investigando actualmente Facebook e Instagram de Meta por su supuesta falta de lucha contra la desinformación antes de las elecciones de la UE de junio.

Pero los expertos ahora también temen una avalancha sin precedentes de desinformación por parte de malos actores en Metaaplicaciones debido a la facilidad de usar herramientas de inteligencia artificial generativa como ChatGPT o el generador de imágenes Dall-E para crear contenido a pedido y en segundos.

Meta dijo que había visto a «actores de amenazas» utilizar la IA para crear fotos, videos y textos falsos, pero no imágenes realistas de políticos, según el informe.

La IA generativa se ha utilizado para crear imágenes de perfil para cuentas falsas en la familia de aplicaciones de Meta, y una red de engaño de China aparentemente utilizó la tecnología para crear carteles para un movimiento activista ficticio pro-Sikh llamado Operación K, indicó el informe.

Mientras tanto, una red con sede en Israel publicó lo que parecían ser comentarios generados por IA sobre la política de Medio Oriente en páginas de Facebook de organizaciones de medios y figuras públicas, informó Meta.

Comparándolos con el spam, Meta dijo que esos comentarios, algunos de los cuales estaban en páginas de legisladores estadounidenses, fueron criticados en respuestas publicadas por usuarios reales, quienes los llamaron propaganda.

Meta atribuyó la campaña a una empresa de marketing político con sede en Tel Aviv.

«Este es un espacio emocionante para observar», dijo Mike Dvilyanski, jefe de investigaciones de amenazas de Meta. «Hasta ahora, no hemos visto un uso disruptivo de herramientas de IA generativa por parte de los adversarios».

El informe también mostró que los esfuerzos de un grupo vinculado a Rusia llamado «Doppelganger» para utilizar Metaaplicaciones para socavar el apoyo a Ucrania persistieron pero se están viendo frustrados en la plataforma.

«Doppelganger lo ha llevado a un nuevo nivel en los últimos 20 meses, sin dejar de ser tosco y en gran medida ineficaz a la hora de crear audiencias auténticas en las redes sociales», según Meta.

Meta también eliminó pequeños grupos de cuentas no auténticas de Facebook e Instagram que se originaron en China y estaban dirigidas a la comunidad sij en Australia, Canadá, India, Pakistán y otros países, según mostró el informe.

Las publicaciones en esas cuentas falsas convocaban a protestas pro-sij.

© 2024 AFP

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *