Consejo técnico: cómo detectar imágenes deepfake generadas por IA
La falsificación de la IA se está convirtiendo rápidamente en uno de los mayores problemas a los que nos enfrentamos en línea. Las imágenes, vídeos y audios engañosos están proliferando como resultado del aumento y el uso indebido de las herramientas de inteligencia artificial generativa.
Con los deepfakes de IA apareciendo casi todos los días, que representan a todos, desde Taylor Swift hasta Donald Trump, cada vez es más difícil distinguir lo que es real de lo que no lo es. Los generadores de vídeo e imágenes como DALL-E, Midjourney y Sora de OpenAI facilitan a las personas sin conocimientos técnicos la creación de deepfakes: simplemente escriba una solicitud y el sistema la escupirá.
Estas imágenes falsas pueden parecer inofensivas. Pero pueden utilizarse para llevar a cabo estafas y robo de identidad o propaganda y manipulación electoral.
Aquí se explica cómo evitar ser engañado por deepfakes:
En los primeros días de los deepfakes, la tecnología estaba lejos de ser perfecta y a menudo dejaba signos reveladores de manipulación. Los verificadores de datos han señalado imágenes con errores obvios, como manos con seis dedos o anteojos con lentes de formas diferentes.
Pero a medida que la IA ha mejorado, se ha vuelto mucho más difícil. Algunos consejos ampliamente compartidos, como buscar patrones de parpadeo antinaturales entre las personas en videos deepfake, ya no son válidos, dijo Henry Ajder, fundador de la consultora Latent Space Advisory y destacado experto en IA generativa.
Aún así, hay algunas cosas que buscar, dijo.
Muchas fotografías deepfake de IA, especialmente de personas, tienen un brillo electrónico, «una especie de efecto suavizante estético» que deja la piel «con un aspecto increíblemente pulido», dijo Ajder.
Sin embargo, advirtió que las indicaciones creativas a veces pueden eliminar este y muchos otros signos de manipulación de la IA.
Comprueba la consistencia de las sombras y la iluminación. A menudo, el sujeto está claramente enfocado y parece convincentemente realista, pero los elementos del fondo pueden no ser tan realistas o pulidos.
El intercambio de caras es uno de los métodos de deepfake más comunes. Los expertos aconsejan mirar de cerca los bordes del rostro. ¿El tono de piel del rostro coincide con el del resto de la cabeza o del cuerpo? ¿Los bordes de la cara están nítidos o borrosos?
Si sospecha que el video de una persona hablando ha sido manipulado, mire su boca. ¿Los movimientos de sus labios coinciden perfectamente con el audio?
Ajder sugiere mirar los dientes. ¿Son claros o están borrosos y de alguna manera no son consistentes con su apariencia en la vida real?
La empresa de ciberseguridad Norton dice que es posible que los algoritmos aún no sean lo suficientemente sofisticados como para generar dientes individuales, por lo que la falta de contornos para los dientes individuales podría ser una pista.
A veces el contexto importa. Tómate un momento para considerar si lo que estás viendo es plausible.
El sitio web de periodismo Poynter advierte que si ves a una figura pública haciendo algo que parece “exagerado, poco realista o fuera de carácter”, podría ser un deepfake.
Por ejemplo, ¿llevaría realmente el Papa una chaqueta acolchada de lujo, como lo muestra una notoria foto falsa? Si lo hiciera, ¿no se publicarían fotos o vídeos adicionales de fuentes legítimas?
Otro enfoque es utilizar la IA para luchar contra la IA.
Microsoft ha desarrollado una herramienta de autenticación que puede analizar fotos o vídeos para dar una puntuación de confianza sobre si han sido manipulados. FakeCatcher del fabricante de chips Intel utiliza algoritmos para analizar los píxeles de una imagen y determinar si es real o falsa.
Hay herramientas en línea que prometen detectar falsificaciones si subes un archivo o pegas un enlace al material sospechoso. Pero algunos, como el autenticador de Microsoft, sólo están disponibles para socios seleccionados y no para el público. Esto se debe a que los investigadores no quieren alertar a los malos actores y darles una mayor ventaja en la carrera armamentista de los deepfake.
El acceso abierto a las herramientas de detección también podría dar a las personas la impresión de que son «tecnologías divinas que pueden subcontratar el pensamiento crítico por nosotros», cuando en cambio debemos ser conscientes de sus limitaciones, dijo Ajder.
Dicho todo esto, la inteligencia artificial ha avanzado a una velocidad vertiginosa y los modelos de IA se están entrenando con datos de Internet para producir contenidos cada vez de mayor calidad y con menos fallos.
Eso significa que no hay garantía de que este consejo siga siendo válido incluso dentro de un año.
Los expertos dicen que incluso podría ser peligroso imponer a la gente común la carga de convertirse en Sherlocks digitales porque podría darles una falsa sensación de confianza a medida que se vuelve cada vez más difícil, incluso para ojos entrenados, detectar deepfakes.
© Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.