IA generativa: Meta dice que el engaño de la IA generativa está bajo control, por ahora

Medios de comunicación social gigante Meta dice que su intento de frustrar la coordinación desinformación campañas creadas a través de mejoras constantes IA generativa está funcionando, a pesar de las preocupaciones generalizadas.

El último estudio de Meta sobre «comportamiento no auténtico coordinado» en sus plataformas se produce a medida que aumentan los temores de que la IA generativa se utilice para engañar o confundir a las personas en los próximos elecciones en todo el mundo, especialmente en Estados Unidos.

Mejore su destreza tecnológica con cursos de habilidades de alto valor

Ofreciendo universidad Curso Sitio web
IIT Delhi Programa de certificación en ciencia de datos y aprendizaje automático Visita
Escuela de Negocios de la India Certificado Profesional en Gestión de Productos Visita
CON xPRO Liderazgo e innovación tecnológica del MIT Visita

«Lo que hemos visto hasta ahora es que las defensas existentes de nuestra industria, incluido nuestro enfoque en el comportamiento más que en el contenido para contrarrestar las amenazas adversas, ya se aplican y parecen ser efectivas», dijo David Agranovich, director de políticas de interrupción de amenazas de Meta, en un comunicado de prensa. sesión informativa el miércoles.

«No estamos viendo que la IA generativa se utilice de maneras terriblemente sofisticadas, pero sabemos que estas redes seguirán evolucionando sus tácticas a medida que esta tecnología cambie».

Facebook ha sido acusado durante años de ser utilizado como una poderosa plataforma para la desinformación electoral.

Los agentes rusos utilizaron Facebook y otras redes sociales estadounidenses para provocar tensiones políticas en las elecciones de 2016 ganadas por Donald Trump. El unión Europea Actualmente está investigando Facebook e Instagram de Meta por presunto fracaso en contrarrestar la desinformación antes de las elecciones de la UE de junio.

Descubre las historias de tu interés


Pero los expertos ahora también temen una avalancha sin precedentes de desinformación por parte de malos actores en Metaaplicaciones debido a la facilidad de uso generativo. herramientas de inteligencia artificial como ChatGPT o el Darle Generador de imágenes para hacer contenido bajo demanda y en segundos.Meta dijo que había visto «actores de amenaza» puso a trabajar la IA para crear fotografías, vídeos y textos falsos, pero no imágenes realistas de los políticos, según el informe.

Se ha utilizado IA generativa para crear imágenes de perfil para cuentas falsas en la familia de aplicaciones de Meta, y una engaño La red de China aparentemente utilizó la tecnología para crear carteles para un movimiento activista ficticio pro-Sikh llamado Operación Kindica el informe.

Mientras tanto, una red con sede en Israel publicó lo que parecían ser comentarios generados por IA sobre la política de Medio Oriente en páginas de Facebook de organizaciones de medios y figuras públicas, informó Meta.

Comparándolos con el spam, Meta dijo que esos comentarios, algunos de los cuales estaban en páginas de legisladores estadounidenses, fueron criticados en respuestas publicadas por usuarios reales, quienes los llamaron propaganda.

Meta atribuyó la campaña a un Empresa de marketing político con sede en Tel Aviv.

«Este es un espacio emocionante para observar», dijo Mike Dvilyanski, jefe de investigaciones de amenazas de Meta. «Hasta ahora, no hemos visto un uso disruptivo de herramientas de IA generativa por parte de los adversarios».

El informe también mostró que los esfuerzos de un grupo vinculado a Rusia llamado «Doppelganger» para utilizar Metaaplicaciones para socavar el apoyo a Ucrania persistieron pero se están viendo frustrados en la plataforma.

«Doppelganger lo ha llevado a un nuevo nivel en los últimos 20 meses, sin dejar de ser tosco y en gran medida ineficaz a la hora de crear audiencias auténticas en las redes sociales», según Meta.

Meta también eliminó pequeños grupos de cuentas no auténticas de Facebook e Instagram que se originaron en China y estaban dirigidas a la comunidad sij en Australia, Canadá, India, Pakistán y otros países, según mostró el informe.

Las publicaciones en esas cuentas falsas convocaban a protestas pro-sij.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *