Los reguladores chinos comienzan a probar los modelos GenAI sobre valores socialistas

Los reguladores chinos comienzan a probar los modelos GenAI sobre valores socialistas

Código digital y bandera china que representan la ciberseguridad en China.

Anton Petrus | Momento | Getty Images

Las empresas de inteligencia artificial en China están llevando a cabo una revisión gubernamental de sus grandes modelos de lenguaje, con el objetivo de garantizar que «encarnen valores socialistas fundamentales», según un informe. informe por el Financial Times.

La revisión la está llevando a cabo la Administración del Ciberespacio de China (CAC), el principal regulador de Internet del gobierno, y cubrirá a actores de todo el espectro, desde gigantes tecnológicos como ByteDance y Alibaba A pequeñas empresas emergentes.

Los funcionarios locales de la CAC pondrán a prueba los modelos de IA para comprobar sus respuestas a una variedad de preguntas, muchas de ellas relacionadas con temas políticamente sensibles y con el presidente chino Xi Jinping, según informó FT. También se revisarán los datos de entrenamiento y los procesos de seguridad del modelo.

Una fuente anónima de una empresa de inteligencia artificial con sede en Hangzhou que habló con el FT dijo que su modelo no pasó la primera ronda de pruebas por razones poco claras. Solo pasaron la segunda vez después de meses de «adivinar y ajustar», dijeron en el informe.

Los últimos esfuerzos de la CAC ilustran cómo Beijing ha caminado por la cuerda floja entre Poniéndose al día con los EE.UU. en GenAI Al mismo tiempo que se sigue de cerca el desarrollo de la tecnología, se garantiza que el contenido generado por IA se ajuste a sus necesidades. censura estricta en internet políticas.

El país fue uno de los primeros en concretar reglas que rigen la inteligencia artificial generativa el año pasado, incluido el requisito de que los servicios de IA se adhieran a los «valores fundamentales del socialismo» y no generen contenido «ilegal».

Cumplir con las políticas de censura requiere un «filtrado de seguridad», y se ha vuelto complicado porque los LLM chinos todavía reciben capacitación en una cantidad significativa de contenido en idioma inglés, dijeron al FT varios ingenieros y personas con información privilegiada de la industria.

Según el informe, el filtrado se realiza eliminando «información problemática» de los datos de entrenamiento del modelo de IA y luego creando una base de datos de palabras y frases que son sensibles.

Según se informa, las regulaciones han llevado a que los chatbots más populares del país a menudo se nieguen a responder preguntas sobre temas delicados como las protestas de la Plaza Tiananmen de 1989.

Sin embargo, durante las pruebas CAC, hay límites en la cantidad de preguntas que los LLM pueden rechazar directamente, por lo que los modelos deben ser capaces de generar «respuestas políticamente correctas» a preguntas delicadas.

Un experto en inteligencia artificial que trabaja en un chatbot en China dijo al FT que es difícil evitar que los LLM generen todo el contenido potencialmente dañino, por lo que en su lugar construyen una capa adicional en el sistema que reemplaza las respuestas problemáticas en tiempo real.

Las regulaciones, así como las sanciones estadounidenses que han restringido el acceso a los chips utilizados para capacitar a los LLM, han dificultado la tarea de las empresas chinas. para lanzar sus propios servicios similares a ChatGPT. China, sin embargo, domina la carrera mundial en patentes de IA generativa.

Lea el informe completo del FT

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *