La asociación Apple-Baidu corre el riesgo de acelerar la influencia de China sobre el futuro de la IA generativa: The Diplomat
Recientemente, Apple ha sido reunión con empresas de tecnología chinas sobre el uso de herramientas de inteligencia artificial (IA) generativa locales en todos los nuevos iPhones y sistemas operativos para el mercado chino. Lo más probable camaradería Parece estar con Ernie Bot de Baidu. Parece que si Apple va a integrar IA generativa en sus dispositivos en China, tendrá que ser IA china.
La certeza de que Apple adopte un modelo de IA chino es el resultado, en parte, de directrices sobre IA generativa publicado por la Administración del Ciberespacio de China (CAC) en julio pasado, y el informe más amplio de China ambición convertirse en un líder mundial en IA.
Si bien no sorprende que Apple, que ya cumple con una serie de directivas de censura y vigilancia para retener el acceso al mercado en China, adoptaría un modelo de IA chino garantizado para manipular el contenido generado según las líneas del Partido Comunista, es un recordatorio alarmante de la creciente influencia de China sobre esta tecnología emergente. Ya sean directas o indirectas, dichas asociaciones corren el riesgo de acelerar la influencia adversa de China sobre el futuro de la IA generativa, lo que significa consecuencias para los derechos humanos en la esfera digital.
IA generativa con características chinas
China Momento de la IA Sputnik Generalmente se atribuye a un juego de Go. En 2017, AlphaGo de Google derrotó a Ke Jie de China, el jugador de Go mejor clasificado del mundo. Unos meses más tarde, el Consejo de Estado de China emitió su Plan de Desarrollo de Inteligencia Artificial de Nueva Generación pidiendo que China se convierta en líder mundial en teorías, tecnologías y aplicaciones de IA para 2030. Desde entonces, China ha implementado numeroso políticas y directrices sobre IA.
En febrero de 2023, en medio del meteórico ascenso global de ChatGPT, China instruido sus defensores tecnológicos locales bloquearon el acceso al chatbot, alegando que estaba difundiendo propaganda estadounidense; en otras palabras, contenido más allá de los controles de información de Beijing. A principios de ese mismo mes, Baidu había Anunciado estaba lanzando su propio chatbot de IA generativa.
El CAC pautas Obligar a las tecnologías de IA generativa en China a cumplir con amplios requisitos de censura, “manteniendo[ing] los Valores Socialistas Fundamentales” y prevenir contenidos que inciten a la subversión o al separatismo, pongan en peligro la seguridad nacional, dañen la imagen de la nación o difundan información “falsa”. Estos son eufemismos comunes para la censura relacionada con Xinjiang, Tíbet, Hong Kong, Taiwán y otros temas sensibles para Beijing. Las directrices también exigen una “evaluación de seguridad” antes de la aprobación para el mercado chino.
Dos semanas antes de que las directrices entraran en vigor, Apple remoto más de 100 aplicaciones de chatbot de IA generativa de su App Store en China. Hasta la fecha, la CAC ha autorizado alrededor de 40 modelos de IA para uso doméstico, incluido el Ernie Bot de Baidu.
Como era de esperar, de acuerdo con el modelo chino de gobernanza de Internet y de conformidad con las últimas directrices, Ernie Bot está altamente censurado. Sus parámetros están configurados para la línea del partido. Por ejemplo, como Voice of America reportadoCuando se le preguntó qué sucedió en China en 1989, el año de la masacre de la Plaza de Tiananmen, Ernie Bot afirmó no tener ninguna “información relevante”. Cuando se le preguntó sobre Xinjiang, repitió la propaganda oficial. Cuando se planteó el movimiento a favor de la democracia en Hong Kong, Ernie instó al usuario a “hablar de otra cosa” y cerró la ventana de chat.
Ya sea Ernie Bot u otra IA china, una vez que Apple decida qué modelo utilizar en su importante mercado en China, corre el riesgo de normalizar aún más el modelo autoritario de gobernanza digital de Beijing y acelerar los esfuerzos de China para estandarizar sus políticas y tecnologías de IA a nivel mundial.
Es cierto que desde que las directrices entraron en vigor, Apple no es la primera empresa tecnológica global en cumplirlas. Samsung Anunciado en enero integraría el chatbot de Baidu en la próxima generación de sus dispositivos Galaxy S24 en el continente.
A medida que China se posicione para convertirse en un líder mundial en IA y se apresure a implementar regulaciones, es probable que veamos más impactos negativos directos e indirectos sobre los derechos humanos, incitados por la lentitud de los desarrolladores globales de IA para adoptar directrices claras basadas en derechos sobre cómo responder.
El problema de la IA de China y Microsoft
Cuando Microsoft lanzó su nueva herramienta de IA generativa, basada en ChatGPT de OpenAI, a principios de 2023, prometido para ofrecer respuestas más completas y una nueva experiencia de chat. Pero poco después, los observadores comenzaron a notar problemas cuando se les preguntó sobre los abusos de los derechos humanos de China hacia los uigures. El chatbot también mostró dificultades para distinguir entre la propaganda de China y las versiones predominantes de los expertos en derechos humanos, los gobiernos y las Naciones Unidas.
Como afirma el experto uigur Adrian Zenz anotado En marzo de 2023, cuando se le preguntó sobre la esterilización uigur, el robot se mostró evasivo y, cuando finalmente generó un reconocimiento de las acusaciones, pareció compensar en exceso con temas de conversación pro-China.
Al reconocer las acusaciones del Tribunal Uigur independiente con sede en el Reino Unido, el robot pasó a citar la denuncia china del “pseudotribunal” como una «herramienta política utilizada por unos pocos elementos anti-China para engañar y engañar al público», antes de repetir la desinformación de Beijing de haber mejorado los «derechos e intereses de las mujeres de todos los grupos étnicos en Xinjiang y que sus políticas están dirigidas a prevenir el extremismo religioso y terrorismo.»
Curiosamente, en abril del año pasado también intenté mi propio experimento en Microsoft Edge, probando indicaciones similares. En múltiples casos, comenzó a generar una respuesta solo para borrar abruptamente su contenido y cambiar de tema. Por ejemplo, cuando se le preguntó acerca de los “abusos de los derechos humanos de China contra los uigures”, la IA comenzó a responder, pero de repente borró lo que había generado y cambió de tono: “¡Lo siento! Eso depende de mí, no puedo dar una respuesta a eso en este momento”.
Retrocedí y escribí: “¿Por qué no puedes dar una respuesta sobre la esterilización uigur?”, solo para que el chat finalizara la sesión y cerrara el cuadro de chat con el mensaje: “Quizás sea hora de pasar a un nuevo tema. Empecemos de nuevo.»
Si bien los esfuerzos del autor para colaborar con Microsoft en ese momento fueron poco fructíferos, la empresa finalmente hizo correcciones para mejorar parte del contenido generado. Pero la falta de transparencia en torno a las causas fundamentales de este problema, como si se trataba de un problema con el conjunto de datos o los parámetros del modelo, no alivia las preocupaciones sobre la posible influencia de China sobre la IA generativa más allá de sus fronteras.
Este problema de la “caja negra” (de no tener total transparencia sobre los parámetros operativos de un sistema de IA) se aplica por igual a todos los desarrolladores de IA generativa, no sólo a Microsoft. ¿Qué datos se utilizaron para entrenar el modelo? ¿Incluyó información sobre los abusos de derechos humanos en China y cómo se obtuvieron estas respuestas? Parece que los datos incluían los abusos de derechos de China porque el chatbot inicialmente comenzó a generar contenido citando fuentes creíbles solo para autocensurarse abruptamente. ¿Entonces qué pasó?
Una mayor transparencia es vital para determinar, por ejemplo, si esto fue en respuesta a la influencia directa de China o al temor a represalias, especialmente para empresas como Microsoft, uno de los pocos Las empresas tecnológicas occidentales permitieron el acceso al valioso mercado de Internet de China.
Casos como este plantean interrogantes sobre la IA generativa como guardián para curar el acceso a la información, lo que es aún más preocupante cuando afecta el acceso a la información sobre abusos de derechos humanos, lo que puede afectar la documentación, las políticas y la rendición de cuentas. Estas preocupaciones no harán más que aumentar a medida que los periodistas o investigadores recurran cada vez más a estas herramientas.
Es probable que estos desafíos aumenten a medida que China busque influencia global sobre los estándares y tecnologías de IA.
Responder a China requiere una IA global basada en los derechos
En 2017, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), la organización técnica líder en el mundo, enfatizado que la IA debe “crearse y operarse para respetar, promover y proteger los derechos humanos internacionalmente reconocidos”. Esto debería ser parte de las evaluaciones de riesgos de la IA. El estudio recomendó ocho principios generales para un diseño éticamente alineado que deberían aplicarse a todos los sistemas autónomos e inteligentes, que incluían los derechos humanos y la transparencia.
El mismo año, Microsoft lanzó una evaluación del impacto de la IA en los derechos humanos. Entre sus objetivos era “posicionar el uso responsable de la IA como tecnología al servicio de los derechos humanos”. No ha publicado un nuevo estudio en los últimos seis años, a pesar de cambios significativos en el campo como la IA generativa.
Aunque Apple ha tardado más que sus competidores en implementar la IA generativa, en febrero de este año la compañía perdió la oportunidad de adoptar una postura normativa líder en la industria sobre la tecnología emergente. En una junta de accionistas el 28 de febrero, Apple rechazado una propuesta para un informe de transparencia de la IA, que habría incluido la divulgación de directrices éticas sobre la adopción de la IA.
Durante la misma reunión, el director ejecutivo de Apple, Tim Cook, también prometido que Apple “abriría nuevos caminos” en IA en 2024. La estrategia de IA de Apple aparentemente incluye ceder más control sobre la tecnología emergente a China en formas que parecen contradecir la propia estrategia de la compañía. compromisos a los derechos humanos.
Ciertamente, sin sus propias directrices aplicables sobre transparencia e IA ética, Apple no debería asociarse con empresas de tecnología chinas con un conocido historial deficiente en materia de derechos humanos. Los reguladores de Estados Unidos deberían pedir a empresas como Apple y Microsoft que testifiquen sobre la falta de una diligencia adecuada en materia de derechos humanos en relación con la IA emergente, especialmente antes de asociarse con abusadores injustificados de los derechos, cuando los riesgos de tales asociaciones son tan altos.
Si las principales empresas tecnológicas que desarrollan nuevas tecnologías de IA no están dispuestas a comprometerse con cambios normativos serios para adoptar los derechos humanos y la transparencia desde el diseño, y los reguladores no imponen supervisión y regulaciones basadas en los derechos, mientras China continúa avanzando con sus propias tecnologías y políticas, entonces los derechos humanos corren el riesgo de perder frente a China tanto en la carrera técnica como en la normativa.