Un investigador de inteligencia artificial se enfrenta a los deepfakes electorales

Durante casi 30 años, Oren Etzioni estuvo entre los investigadores de inteligencia artificial más optimistas.

Pero en 2019, el Dr. Etzioni, profesor de la Universidad de Washington y director ejecutivo fundador del Instituto Allen de IA, se convirtió en uno de los primeros investigadores en advertir que una nueva generación de IA acelerar la difusión de la desinformación en línea. Y a mediados del año pasado, dijo, le preocupaba que los deepfakes generados por IA pudieran influir en una elección importante. Fundó una organización sin fines de lucro, TrueMedia.org en enero, con la esperanza de luchar contra esa amenaza.

El martes, la organización lanzó herramientas gratuitas para identificar la desinformación digital, con un plan para ponerlas en manos de periodistas, verificadores de datos y cualquier otra persona que intente descubrir qué es real en línea.

Las herramientas, disponibles en el Sitio web TrueMedia.org para cualquier persona aprobada por la organización sin fines de lucro, están diseñados para detectar imágenes, audio y videos falsos y manipulados. Revisan enlaces a archivos multimedia y determinan rápidamente si se debe confiar en ellos.

El Dr. Etzioni ve estas herramientas como una mejora con respecto a la defensa de mosaico que se utiliza actualmente para detectar contenido de IA engañoso o engañoso. Pero en un año en el que miles de millones de personas en todo el mundo están listos para votar en las elecciones, continúa pintando un panorama sombrío de lo que nos espera.

“Estoy aterrorizado”, dijo. «Existen muchas posibilidades de que veamos un tsunami de desinformación».

Tan solo en los primeros meses del año, las tecnologías de IA ayudaron a crear llamadas de voz falsas del presidente Biden, Imágenes falsas de Taylor Swift. y anuncios de audioy un entrevista falsa entera eso parecía mostrar a un funcionario ucraniano atribuyéndose el mérito de un ataque terrorista en Moscú. Detectar este tipo de desinformación ya es difícil, y la industria tecnológica continúa lanzando sistemas de inteligencia artificial cada vez más potentes que generarán deepfakes cada vez más convincentes y hacer la detección aún más difícil.

Muchos investigadores de inteligencia artificial advierten que la amenaza está cobrando fuerza. El mes pasado, más de mil personas, incluido el Dr. Etzioni y varios otros destacados investigadores de IA, firmaron una carta abierta pidiendo leyes que responsabilicen a los desarrolladores y distribuidores de servicios visuales y de audio de IA si su tecnología se utiliza fácilmente para crear deepfakes dañinos.

En un evento organizado por Universidad de Colombia El jueves, Hillary Clinton, exsecretaria de Estado, entrevistó a Eric Schmidt, ex director ejecutivo de Google, quien advirtió que los videos, incluso los falsos, podrían “impulsar el comportamiento electoral, el comportamiento humano, los estados de ánimo, todo”.

«No creo que estemos preparados», dijo Schmidt. “Este problema va a empeorar mucho en los próximos años. Quizás o no para noviembre, pero ciertamente en el próximo ciclo”.

La industria tecnológica es muy consciente de la amenaza. Incluso cuando las empresas se apresuran a avanzar en los sistemas de IA generativa, están luchando por limitar el daño que estas tecnologías pueden hacer. Anthropic, Google, Meta y OpenAI han anunciado planea limitar o etiquetar los usos relacionados con las elecciones de sus servicios de inteligencia artificial. En febrero, 20 empresas de tecnología, incluidas Amazon, Microsoft, TikTok y X, firmaron un compromiso voluntario para evitar que el contenido engañoso de IA interrumpa la votación.

Eso podría ser un desafío. Las empresas suelen publicar sus tecnologías como software de “código abierto”, es decir cualquiera es libre de usarlos y modificarlos sin restricciones. Los expertos dicen que la tecnología utilizada para crear deepfakes (resultado de una enorme inversión por parte de muchas de las empresas más grandes del mundo) siempre superará a la tecnología diseñada para detectar desinformación.

La semana pasada, durante una entrevista con The New York Times, el Dr. Etzioni mostró lo fácil que es crear un deepfake. Utilizar un servicio de un organización hermana sin fines de lucro, CivAIque se basa en herramientas de inteligencia artificial disponibles en Internet para demostrar los peligros de estas tecnologías, instantáneamente creó fotos de sí mismo en prisión, en un lugar en el que nunca ha estado.

“Cuando te ves siendo engañado, da mucho más miedo”, dijo.

Más tarde, generó un deepfake de sí mismo en una cama de hospital, el tipo de imagen que cree que podría influir en una elección si se aplica a Biden o al expresidente Donald J. Trump justo antes de las elecciones.

Una imagen deepfake creada por el Dr. Etzioni de sí mismo en una cama de hospital.Crédito…vía Oren Etzioni

Las herramientas de TrueMedia están diseñadas para detectar falsificaciones como estas. Más de una docena de startups ofrecer tecnología similar.

Pero el Dr. Etzioni, si bien destacó la eficacia de la herramienta de su grupo, dijo que ningún detector era perfecto porque estaban impulsados ​​por probabilidades. Servicios de detección de deepfake han sido engañados a declarar imágenes de robots besándose y neandertales gigantes como fotografías reales, lo que genera preocupaciones de que tales herramientas puedan dañar aún más la confianza de la sociedad en los hechos y las pruebas.

Cuando el Dr. Etzioni alimentó las herramientas de TrueMedia con un conocido deepfake del Sr. Trump sentado en un porche con un grupo de jóvenes negros, lo etiquetaron como “altamente sospechoso”, su mayor nivel de confianza. Cuando subió otro conocido deepfake de Trump con sangre en los dedos, no estaban «seguros» de si era real o falso.

La herramienta de TrueMedia calificó un deepfake de IA del expresidente Donald J. Trump sentado en una entrada con un grupo de jóvenes negros como “altamente sospechoso”.
Pero un deepfake de Trump con sangre en los dedos fue etiquetado como “incierto”.

«Incluso usando las mejores herramientas, no puedes estar seguro», dijo.

La Comisión Federal de Comunicaciones recientemente llamadas automáticas generadas por IA prohibidas. Algunas empresas, incluidas OpenAI y Meta, ahora están etiquetando imágenes generadas por IA con marcas de agua. Y los investigadores están explorando formas adicionales de separar lo real de lo falso.

La Universidad de Maryland está desarrollando un sistema criptográfico basado en códigos QR para autenticar grabaciones en vivo inalteradas. A estudiar publicado el mes pasado pidió a docenas de adultos que respiraran, tragaran y pensaran mientras hablaban para que sus patrones de pausa en el habla pudieran compararse con los ritmos del audio clonado.

Pero como muchos otros expertos, el Dr. Etzioni advierte que las marcas de agua de las imágenes se eliminan fácilmente. Y aunque ha dedicado su carrera a luchar contra los deepfakes, reconoce que las herramientas de detección tendrán dificultades para superar las nuevas tecnologías de inteligencia artificial generativa.

Desde que creó TrueMedia.org, OpenAI ha presentado dos nuevas tecnologías que prometen hacer su trabajo aún más difícil. Se puede recrear un Voz de una persona a partir de una grabación de 15 segundos.. Otro puede generar vídeos en movimiento completo que Parece algo sacado de una película de Hollywood.. OpenAI aún no comparte estas herramientas con el público, ya que trabaja para comprender los peligros potenciales.

(El Times ha demandado OpenAI y su socio, Microsoft, sobre reclamaciones de infracción de derechos de autor que involucran sistemas de inteligencia artificial que generan texto).

En última instancia, dijo el Dr. Etzioni, combatir el problema requerirá una cooperación amplia entre los reguladores gubernamentales, las empresas que crean tecnologías de inteligencia artificial y los gigantes tecnológicos que controlan los navegadores web y las redes sociales donde se difunde la desinformación. Sin embargo, dijo que la probabilidad de que eso sucediera antes de las elecciones de otoño era escasa.

«Estamos tratando de brindar a la gente la mejor evaluación técnica de lo que tienen delante», dijo. «Todavía tienen que decidir si es real».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *