Microsoft se burla de la tecnología de inteligencia artificial de avatar realista, pero no da fecha de lanzamiento

Investigadores de Microsoft han revelado una nueva herramienta artificial que puede crear avatares humanos profundamente realistas, pero no ofrecieron un cronograma para ponerla a disposición del público, citando preocupaciones sobre la facilitación de contenido profundamente falso.

El modelo de IA conocido como VASA-1, por «habilidades afectivas visuales», puede crear un vídeo animado de una persona hablando, con movimientos de labios sincronizados, utilizando una sola imagen y un clip de audio de voz.

Los investigadores de desinformación temen un uso indebido desenfrenado de aplicaciones impulsadas por inteligencia artificial para crear imágenes, vídeos y clips de audio «muy falsos» en un año electoral crucial.

«Nos oponemos a cualquier comportamiento que cree contenidos engañosos o dañinos de personas reales», escribieron los autores del informe VASA-1, publicado esta semana por Microsoft Research Asia.

«Estamos dedicados a desarrollar la IA de manera responsable, con el objetivo de promover el bienestar humano», dijeron.

«No tenemos planes de lanzar una demostración en línea, API, producto, detalles de implementación adicionales o cualquier oferta relacionada hasta que estemos seguros de que la tecnología se utilizará de manera responsable y de acuerdo con las regulaciones adecuadas».

Los investigadores de Microsoft dijeron que la tecnología puede capturar un amplio espectro de matices faciales y movimientos naturales de la cabeza.

«Allana el camino para interacciones en tiempo real con avatares realistas que emulan comportamientos conversacionales humanos», dijeron los investigadores en la publicación.

VASA puede trabajar con fotografías artísticas, canciones y habla no inglesa, según Microsoft.

Los investigadores promocionaron los posibles beneficios de la tecnología, como proporcionar profesores virtuales a los estudiantes o apoyo terapéutico a las personas necesitadas.

«No se pretende crear contenido que se utilice para inducir a error o engañar», dijeron.

Los vídeos de VASA todavía tienen «artefactos» que revelan que están generados por IA, según la publicación.

El líder de tecnología de ProPublica, Ben Werdmuller, dijo que estaría «emocionado de saber que alguien lo usa para representarlo en una reunión de Zoom por primera vez».

«Como, ¿cómo te fue? ¿Alguien se dio cuenta?» dijo en la red social Threads.

OpenAI, creador de ChatGPT, reveló en marzo una herramienta de clonación de voz llamada «Voice Engine» que esencialmente puede duplicar el discurso de alguien basándose en una muestra de audio de 15 segundos.

Pero dijo que estaba «adoptando un enfoque cauteloso e informado para una publicación más amplia debido al potencial de uso indebido de la voz sintética».

A principios de este año, un consultor que trabajaba para candidatos presidenciales demócratas con posibilidades remotas admitió que estaba detrás de una suplantación de identidad de Joe Biden enviada a los votantes en New Hampshire, diciendo que estaba tratando de resaltar los peligros de la IA.

La llamada incluía lo que sonaba como la voz de Biden instando a la gente a no votar en las primarias del estado de enero, lo que generó alarma entre los expertos que temen una avalancha de desinformación profundamente falsa impulsada por inteligencia artificial en la carrera por la Casa Blanca de 2024.

© 2024 AFP

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *