OpenAI crea un nuevo equipo de supervisión y comienza a entrenar el próximo modelo

El director ejecutivo de OpenAI, Sam Altman, habla durante la conferencia Microsoft Build en la sede de Microsoft en Redmond, Washington, el 21 de mayo de 2024.

Jason Redmond | AFP | imágenes falsas

OpenAI dijo el martes que creó un comité de seguridad dirigido por altos ejecutivos, después de disolver su anterior junta de supervisión a mediados de mayo.

El nuevo comité será responsable de recomendar a la junta directiva de OpenAI «decisiones críticas de seguridad para proyectos y operaciones de OpenAI», dijo la compañía.

La noticia del nuevo comité llega cuando el desarrollador del asistente virtual ChatGPT anunció que ha comenzado a entrenar su «modelo de próxima frontera».

La firma dijo en una publicación de blog que anticipa los «sistemas resultantes que nos llevarán al siguiente nivel de capacidades en nuestro camino hacia la AGI», o inteligencia artificial general, un tipo de IA que es tan inteligente o más inteligente que los humanos.

Además de Altman, el comité de seguridad estará formado por Bret Taylor, Adam D’Angelo y Nicole Seligman, todos miembros de la junta directiva de OpenAI, según la publicación del blog.

La formación de un nuevo equipo de supervisión se produce después OpenAI disolvió un equipo anterior que se centró en los riesgos a largo plazo de la IA. Antes de eso, ambos líderes del equipo, el cofundador de OpenAI, Ilya Sutskever, y el investigador clave Jan Leike, anunciaron sus salidas desde el microsoft-startup respaldada.

Leike escribió a principios de este mes que «la cultura y los procesos de seguridad de OpenAI han pasado a un segundo plano frente a los productos brillantes». En respuesta a su partida, Altman dijo en la plataforma de redes sociales X que estaba triste por ver a Leike irse y agregó que OpenAI tiene «mucho más por hacer».

Durante los próximos 90 días, el grupo de seguridad evaluará los procesos y salvaguardas de OpenAI y compartirá sus recomendaciones con la junta directiva de la compañía, según la publicación del blog. OpenAI proporcionará una actualización sobre las recomendaciones que ha adoptado en una fecha posterior.

La seguridad de la IA ha estado en la vanguardia de un debate más amplio, a medida que los enormes modelos que sustentan aplicaciones como ChatGPT se vuelven más avanzados. Los desarrolladores de productos de IA también se preguntan cuándo llegará la AGI y qué riesgos la acompañarán.

— Hayden Field de CNBC contribuyó a este informe.

No te pierdas estas exclusivas de CNBC PRO

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *