Estafa deepfake: trabajador financiero de una empresa global engañado para transferir 38 millones de dólares después de que los estafadores se hicieran pasar por su jefe

Un empleado de finanzas de una empresa global ha sido engañado para que transfiera 38,8 millones de dólares a estafadores que utilizaron tecnología avanzada de deepfake para organizar una reunión falsa con su jefe.

Los estafadores pudieron utilizar tecnología de punta para hacerse pasar por el director financiero de la empresa de Hong Kong durante una videollamada.

El empleado de finanzas fue engañado y transfirió la suma de ocho cifras directamente a sus bolsillos.

Este complejo fraude hizo que el empleado participara en una videoconferencia falsa con la impresión de que se reuniría con varios colegas.

Sin embargo, las figuras con las que interactuó eran todas creaciones artificiales generadas por tecnología deepfake, según las autoridades de Hong Kong.

“(En la) videoconferencia de varias personas, resulta que todos [he saw] Era falso”, explicó el superintendente principal, el barón Chan Shun-ching.

El acto fraudulento que involucró al CFO falsificado salió a la luz sólo después de que el empleado de finanzas verificara la transacción en la oficina principal de la empresa.

El incidente se encuentra entre los últimos de una serie de fraudes en los que los delincuentes han explotado la tecnología deepfake para manipular vídeos existentes y otros medios con fines de estafas financieras.

Durante la misma rueda de prensa, agentes de policía de Hong Kong revelaron que habían arrestado a seis personas en relación con planes de fraude similares.

Chan mencionó además que entre julio y septiembre del año anterior, los estafadores habían utilizado ocho tarjetas de identidad robadas de Hong Kong, reportadas como perdidas, para presentar 90 solicitudes de préstamos y registrar 54 cuentas bancarias.

Se empleó tecnología deepfake en al menos 20 ocasiones para eludir las medidas de seguridad de reconocimiento facial imitando las identidades de los titulares de las tarjetas.

Los críticos de esta tecnología altamente avanzada han predicho durante mucho tiempo las repercusiones potencialmente catastróficas que rodean la creación de imágenes de IA ultrarrealistas y su uso en estafas.

Si bien los deepfakes tienen potencial para aplicaciones legítimas en entretenimiento, educación y creación de contenido, también han dado lugar a formas más creativas de estafas y actividades maliciosas.

Para crear un deepfake, se recopilan cantidades sustanciales de datos (imágenes o secuencias de vídeo) de la persona objetivo. Cuantos más datos haya disponibles, más convincente podrá ser el deepfake.

Con la explosión de las redes sociales en los últimos 20 años, junto con el hecho de que cada vez más propietarios de teléfonos inteligentes usan su rostro para desbloquear su dispositivo, los estafadores y piratas informáticos sofisticados tienen a su disposición una mezcla heterogénea de información cada vez mayor.

Personas de alto perfil se han transformado periódicamente en vídeos falsos para promover estafas en las redes sociales.

Recientemente, la imagen del multimillonario australiano Dr. Andrew Forrest se utilizó en una estafa de video criptográfico profundamente falsa.

El empresario y magnate minero, apodado Twiggy, utilizó su identidad para idear un plan para hacerse rico rápidamente con el anuncio que circula en Instagram.

El vídeo manipulado, que apareció a finales del mes pasado en la plataforma propiedad de Meta, muestra al ‘Dr. Forrest’ instando a los usuarios a registrarse en una plataforma fraudulenta que promete hacer ganar a la «gente común» miles de dólares diarios.

Luego lleva a las víctimas a un sitio web llamado “Quantum AI”, que se ha convertido en un nombre asociado con estafas y fraudes financieros, según Cybertrace, la empresa de investigaciones cibernéticas dirigida por inteligencia que identificó el vídeo de la estafa.

El clip fue cuidadosamente editado a partir de una “charla informal” de Rhodes Trust, cambiando la apariencia y el comportamiento del Dr. Forrest para que parezca que está promocionando software para el comercio de criptomonedas.

También existen grandes riesgos de desinformación a medida que los deepfakes se vuelven cada vez más comunes en línea.

Los analistas estadounidenses ya han dado la alarma sobre las falsificaciones de audio en el período previo a las elecciones estadounidenses de 2024, que se consideran una de las más apasionantes de los últimos tiempos.

Una llamada automática con un falso presidente estadounidense, Joe Biden, ha generado especial alarma sobre los deepfakes de audio.

La llamada automática instó a los residentes de New Hampshire a no emitir su voto en las primarias demócratas del mes pasado, lo que llevó a las autoridades estatales a iniciar una investigación sobre una posible supresión de votantes. Los reguladores estadounidenses han estado considerando ilegalizar las llamadas automáticas generadas por IA, y la llamada falsa de Biden dio un nuevo impulso al esfuerzo. ímpetu.

“El momento político del deepfake está aquí”, dijo Robert Weissman, presidente del grupo de defensa Public Citizen.

“Los formuladores de políticas deben apresurarse a implementar protecciones o nos enfrentaremos a un caos electoral. El deepfake de New Hampshire es un recordatorio de las muchas formas en que los deepfake pueden sembrar confusión”.

A los investigadores les preocupa el impacto de las herramientas de inteligencia artificial que crean videos y textos tan aparentemente reales que los votantes podrían tener dificultades para descifrar la verdad de la ficción, socavando la confianza en el proceso electoral.

Pero los deepfakes de audio utilizados para hacerse pasar por celebridades y políticos de todo el mundo o difamarlos son los que han despertado la mayor preocupación.

«De todas las superficies (vídeo, imagen, audio) en las que la IA puede utilizarse para suprimir votantes, el audio es la mayor vulnerabilidad», dijo a la AFP Tim Harper, analista político senior del Centro para la Democracia y la Tecnología.

«Es fácil clonar una voz usando IA y es difícil de identificar».

Publicado originalmente como Trabajador financiero de una empresa global engañado para transferir 38 millones de dólares después de que estafadores falsos se hicieran pasar por su jefe

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *