OpenAI presenta una herramienta de clonación de voz – Japan Today

OpenAI ha revelado una herramienta de clonación de voz que planea mantener estrictamente controlada hasta que se establezcan medidas de seguridad para frustrar las falsificaciones de audio destinadas a engañar a los oyentes.

Un modelo llamado «Voice Engine» puede esencialmente duplicar el discurso de alguien basándose en una muestra de audio de 15 segundos, según una publicación del blog de OpenAI que comparte los resultados de una prueba a pequeña escala de la herramienta.

«Reconocemos que generar un discurso que se parezca a las voces de la gente tiene serios riesgos, que son especialmente importantes en un año electoral», dijo la compañía con sede en San Francisco.

«Estamos colaborando con socios estadounidenses e internacionales de todo el gobierno, los medios de comunicación, el entretenimiento, la educación, la sociedad civil y más para garantizar que incorporamos sus comentarios a medida que construimos».

Los investigadores de desinformación temen un uso indebido desenfrenado de aplicaciones impulsadas por IA en un año electoral crucial gracias a la proliferación de herramientas de clonación de voz, que son baratas, fáciles de usar y difíciles de rastrear.

Al reconocer estos problemas, OpenAI dijo que estaba «adoptando un enfoque cauteloso e informado para un lanzamiento más amplio debido al potencial de uso indebido de la voz sintética».

La cautelosa revelación se produjo unos meses después de que un consultor político que trabajaba para la improbable campaña presidencial de un rival demócrata de Joe Biden admitiera estar detrás de una llamada automática haciéndose pasar por el líder estadounidense.

La llamada generada por IA, creación de un agente del congresista de Minnesota Dean Phillips, presentaba lo que sonaba como la voz de Biden instando a la gente a no votar en las primarias de enero en New Hampshire.

El incidente causó alarma entre los expertos que temen una avalancha de desinformación falsa impulsada por IA en la carrera por la Casa Blanca de 2024, así como en otras elecciones clave en todo el mundo este año.

OpenAI dijo que los socios que prueban Voice Engine aceptaron reglas que incluyen exigir el consentimiento explícito e informado de cualquier persona cuya voz se duplique utilizando la herramienta.

También debe quedar claro al público cuándo las voces que escuchan son generadas por IA, añadió la empresa.

«Hemos implementado un conjunto de medidas de seguridad, incluida la marca de agua para rastrear el origen de cualquier audio generado por Voice Engine, así como un monitoreo proactivo de cómo se utiliza», dijo OpenAI.

© 2024 AFP

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *