La FCC considerará reglas para los anuncios políticos generados por IA en televisión y radio, pero no puede tocar la transmisión por secuencias

El jefe de la Comisión Federal de Comunicaciones presentó el miércoles una propuesta para exigir a los anunciantes políticos que revelen cuándo utilizan contenido generado por inteligencia artificial en anuncios de radio y televisión.

Si es adoptada por la comisión de cinco personas, la propuesta agregaría una capa de transparencia que muchos legisladores y expertos en IA han estado pidiendo a medida que las herramientas de IA generativa que avanzan rápidamente producen imágenes, videos y clips de audio realistas que amenazan con engañar a los votantes en las próximas elecciones. Elecciones estadounidenses.

Sin embargo, el principal regulador de telecomunicaciones del país sólo tendría autoridad sobre la televisión, la radio y algunos proveedores de cable. Las nuevas reglas, si se adoptan, no cubrirían el tremendo crecimiento de la publicidad en plataformas digitales y de streaming.

«A medida que las herramientas de inteligencia artificial se vuelven más accesibles, la comisión quiere asegurarse de que los consumidores estén completamente informados cuando se utiliza la tecnología», dijo la presidenta de la FCC, Jessica Rosenworcel, en un comunicado el miércoles. «Hoy, he compartido con mis colegas una propuesta que hace Está claro que los consumidores tienen derecho a saber cuándo se utilizan herramientas de inteligencia artificial en los anuncios políticos que ven, y espero que actúen rápidamente sobre este tema”.

La propuesta marca la segunda vez este año que la comisión comienza a tomar medidas significativas para combatir el uso creciente de herramientas de inteligencia artificial en las comunicaciones políticas. La FCC confirmó anteriormente que las herramientas de clonación de voz con IA en llamadas automáticas están prohibidas según la ley vigente. Esa decisión se produjo tras un incidente en las elecciones primarias de New Hampshire cuando las llamadas automáticas utilizaron software de clonación de voz para imitar al presidente Joe Biden con el fin de disuadir a los votantes de acudir a las urnas.

Si se adopta, la propuesta anunciada el miércoles pediría a las emisoras que verifiquen con los anunciantes políticos si su contenido fue generado utilizando herramientas de inteligencia artificial, como creadores de texto a imagen o software de clonación de voz. La FCC tiene autoridad sobre la publicidad política en los canales de transmisión según la Ley de Reforma de Campañas Bipartidistas de 2002.

Los comisionados deben discutir varios detalles de la propuesta, incluido si las emisoras tendrían que revelar el contenido generado por IA en un mensaje al aire o sólo en los archivos políticos de la estación de radio o televisión, que son públicos. También tendrán la tarea de acordar una definición de contenido generado por IA, un desafío que se ha vuelto complicado a medida que las herramientas de retoque y otros avances de la IA se integran cada vez más en todo tipo de software creativo.

Rosenworcel espera tener las regulaciones vigentes antes de las elecciones.

Jonathan Uriarte, portavoz y asesor de políticas de Rosenworcel, dijo que está buscando definir el contenido generado por IA como aquel generado utilizando tecnología computacional o sistemas basados ​​en máquinas, “incluyendo, en particular, voces generadas por IA que suenan como voces humanas, y Actores generados por IA que parecen ser actores humanos”. Pero dijo que su borrador de definición probablemente cambiará a través del proceso regulatorio.

La propuesta surge en un momento en que las campañas políticas ya han experimentado intensamente con la IA generativa, desde la creación de chatbots para sus sitios web hasta la creación de videos e imágenes utilizando esta tecnología.

El año pasado, por ejemplo, el RNC lanzó un anuncio íntegramente generado por IA destinado a mostrar un futuro distópico bajo otra administración de Biden. Empleó fotografías falsas pero realistas que mostraban escaparates tapiados, patrullas militares blindadas en las calles y oleadas de inmigrantes que generaban pánico.

Las campañas políticas y los malos actores también han utilizado imágenes, vídeos y contenidos de audio muy realistas como armas para estafar, engañar y privar de sus derechos a los votantes. En las elecciones de la India, videos recientes generados por IA que tergiversan a las estrellas de Bollywood criticando al primer ministro ejemplifican una tendencia que, según los expertos en IA, está surgiendo en las elecciones democráticas en todo el mundo.

Rob Weissman, presidente del grupo de defensa Public Citizen, dijo que estaba contento de ver que la FCC “da un paso adelante para abordar de manera proactiva las amenazas de la inteligencia artificial y los deepfakes, incluso especialmente a la integridad electoral”.

Instó a la FCC a exigir la divulgación al aire para beneficio del público y reprendió a otra agencia, la Comisión Federal Electoral, por sus demoras mientras también considera si regular los deepfakes generados por IA en anuncios políticos.

La representante Yvette Clarke, demócrata de Nueva York, dijo que ahora es el momento de que el Congreso actúe sobre la difusión de información errónea en línea, sobre la cual la FCC no tiene jurisdicción. Ha introducido legislación sobre requisitos de divulgación de contenido generado por IA en anuncios en línea.

A medida que la IA generativa se ha vuelto más barata, accesible y fácil de usar, múltiples grupos bipartidistas de legisladores han pedido legislación para regular la tecnología en la política. A poco más de cinco meses de las elecciones de noviembre, todavía no han aprobado ningún proyecto de ley.

Un proyecto de ley bipartidista presentado por la senadora Amy Klobuchar, demócrata de Minnesota, y la senadora Lisa Murkowski, republicana de Alaska, exigiría que los anuncios políticos tuvieran un descargo de responsabilidad si se elaboran o modifican significativamente utilizando IA. Requeriría que la Comisión Federal Electoral respondiera a las violaciones.

Uriarte dijo que Rosenworcel se da cuenta de que la capacidad de la FCC para actuar ante las amenazas relacionadas con la IA es limitada, pero quiere hacer lo que pueda antes de las elecciones de 2024.

«Esta propuesta ofrece los máximos estándares de transparencia que la comisión puede hacer cumplir bajo su jurisdicción», dijo Uriarte. «Esperamos que las agencias gubernamentales y los legisladores puedan aprovechar este importante primer paso para establecer un estándar de transparencia sobre el uso de la IA en la política. publicidad.»

© Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *