Para ayudar a los votantes de 2024, Meta dice que comenzará a etiquetar anuncios políticos que utilicen imágenes generadas por IA.

Facebook e Instagram exigirán que los anuncios políticos que se publiquen en sus plataformas revelen si fueron creados utilizando inteligencia artificial, anunció su empresa matriz el miércoles.

Según la nueva política de Meta, las etiquetas que reconocen el uso de IA aparecerán en las pantallas de los usuarios cuando hagan clic en los anuncios. La regla entra en vigor el 1 de enero y se aplicará en todo el mundo.

Microsoft dio a conocer el martes sus propias iniciativas para el año electoral, incluida una herramienta que permitirá a las campañas insertar una marca de agua digital en sus anuncios. Estas marcas de agua están destinadas a ayudar a los votantes a comprender quién creó los anuncios y, al mismo tiempo, garantizar que otros no puedan alterar digitalmente los anuncios sin dejar evidencia.

El desarrollo de nuevos programas de inteligencia artificial ha hecho que sea más fácil que nunca generar rápidamente audio, imágenes y videos realistas. En las manos equivocadas, la tecnología podría usarse para crear videos falsos de un candidato o imágenes aterradoras de fraude electoral o violencia en los colegios electorales. Cuando se vinculan a los poderosos algoritmos de las redes sociales, estas falsificaciones podrían engañar y confundir a los votantes en una escala nunca antes vista.

Meta Platforms Inc. y otras empresas tecnológicas han sido criticadas por no hacer más para abordar este riesgo. No es probable que el anuncio del miércoles de Meta, que se produce el día en que los legisladores de la Cámara de Representantes celebran una audiencia sobre los deepfakes, alivie esas preocupaciones.

Mientras los funcionarios en Europa están trabajando en regulaciones integrales para el uso de la IA, se está acabando el tiempo para que los legisladores de Estados Unidos aprueben regulaciones antes de las elecciones de 2024.

A principios de este año, la Comisión Federal Electoral inició un proceso para regular potencialmente los deepfakes generados por IA en anuncios políticos antes de las elecciones de 2024. La administración del presidente Joe Biden emitió la semana pasada una orden ejecutiva destinada a fomentar el desarrollo responsable de la IA. Entre otras disposiciones, exigirá que los desarrolladores de IA proporcionen al gobierno datos de seguridad y otra información sobre sus programas.

La representante demócrata estadounidense Yvette Clarke, de Nueva York, es la patrocinadora de una legislación que requeriría que los candidatos etiqueten cualquier anuncio creado con IA que se publique en cualquier plataforma, así como un proyecto de ley que requeriría marcas de agua en imágenes sintéticas y convertiría en delito crear deepfakes sin etiquetar que inciten a la violencia o representen actividad sexual. Clarke dijo que las acciones de Meta y Microsoft son un buen comienzo, pero no suficiente.

«Estamos al borde de una nueva era de guerra de desinformación ayudada por el uso de nuevas herramientas de inteligencia artificial», dijo en una declaración enviada por correo electrónico. «El Congreso debe establecer salvaguardias no solo para proteger nuestra democracia sino también para frenar la marea de inteligencia artificial engañosa». contenido generado que potencialmente puede engañar al pueblo estadounidense”.

Estados Unidos no es el único país que celebrará una votación de alto perfil el próximo año: también hay elecciones nacionales programadas en países como México, Sudáfrica, Ucrania, Taiwán, India y Pakistán.

Los anuncios políticos generados por IA ya han aparecido en EE.UU. En abril, el Comité Nacional Republicano publicó un anuncio íntegramente generado por IA destinado a mostrar el futuro de Estados Unidos si Biden, un demócrata, es reelegido. Empleó fotografías falsas pero realistas que mostraban escaparates tapiados, patrullas militares blindadas en las calles y oleadas de inmigrantes que generaban pánico. El anuncio estaba etiquetado para informar a los espectadores que se utilizó IA.

En junio, la campaña presidencial del gobernador de Florida, Ron DeSantis, compartió un anuncio de ataque contra su oponente en las primarias republicanas, Donald Trump, que utilizaba imágenes generadas por inteligencia artificial del expresidente abrazando al experto en enfermedades infecciosas, el Dr. Anthony Fauci.

“Se ha vuelto una tarea muy difícil para el observador casual descubrir: ¿Qué creo aquí?” dijo Vince Lynch, desarrollador de IA y director ejecutivo de la empresa de IA IV.AI. Lynch dijo que se necesita alguna combinación de regulación federal y políticas voluntarias por parte de las empresas de tecnología para proteger al público. «Las empresas deben asumir la responsabilidad», afirmó Lynch.

La nueva política de Meta cubrirá cualquier anuncio sobre un tema social, una elección o un candidato político que incluya una imagen realista de una persona o evento que haya sido alterada mediante IA. Se permitiría sin divulgación un uso más modesto de la tecnología (cambiar el tamaño o mejorar la nitidez de una imagen, por ejemplo).

Además de las etiquetas que informan al espectador cuando un anuncio contiene imágenes generadas por IA, la información sobre el uso de IA en el anuncio se incluirá en la biblioteca de anuncios en línea de Facebook. Meta, con sede en Menlo Park, California, dice que el contenido que viole la regla será eliminado.

Google presentó en septiembre una política similar de etiquetado de IA para anuncios políticos. Según esa regla, los anuncios políticos que se reproducen en YouTube u otras plataformas de Google deberán revelar el uso de voces o imágenes alteradas por IA.

Junto con sus nuevas políticas, Microsoft publicó un informe en el que señala que naciones como Rusia, Irán y China intentarán aprovechar el poder de la IA para interferir con las elecciones en Estados Unidos y otros lugares, y advierte que Estados Unidos y otras naciones deben prepararse.

Los grupos que trabajan para Rusia ya están trabajando, concluye el informe del gigante tecnológico con sede en Redmond, Washington.

“Desde al menos julio de 2023, los actores afiliados a Rusia han utilizado métodos innovadores para atraer al público de Rusia y Occidente con contenido multimedia no auténtico, pero cada vez más sofisticado”, escribieron los autores del informe. «A medida que avanza el ciclo electoral, esperamos que el oficio de estos actores mejore mientras que la tecnología subyacente se vuelve más capaz».

© Copyright 2023 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *