A medida que la industria de la IA influye en el mundo, el asesor de Mozilla, Abeba Birhane, desafía sus valores fundamentales

“Escalar” es un lema en la industria de la inteligencia artificial a medida que las empresas tecnológicas se apresuran a mejorar sus sistemas de IA con conjuntos de datos de Internet cada vez más grandes.

También es una señal de alerta para Abeba Birhane, de Mozilla, una experta en inteligencia artificial que durante años ha desafiado los valores y las prácticas de su campo y la influencia que éste tiene en el mundo.

Su última investigación concluye que la ampliación de los datos en línea utilizados para entrenar herramientas populares de generación de imágenes de IA está dando como resultado, de manera desproporcionada, resultados racistas, especialmente contra los hombres negros.

Birhane es asesora principal en materia de rendición de cuentas en materia de inteligencia artificial en la Fundación Mozilla, la organización sin fines de lucro matriz de la empresa de software libre que ejecuta el navegador web Firefox. Criada en Etiopía y residente en Irlanda, también es profesora adjunta en el Trinity College de Dublín.

Su entrevista con The Associated Press ha sido editada para mayor brevedad y claridad.

P: ¿Cómo empezó usted en el campo de la IA?

R: Soy un científico cognitivo de formación. La ciencia cognitiva no tiene un departamento propio en el lugar donde se estudia. Así que donde estudié, estaba en la rama de informática. Me colocaron en un laboratorio lleno de aprendices de máquinas. Estaban haciendo muchas cosas increíbles y nadie prestaba atención a los datos. Me pareció muy divertido y también muy interesante porque pensé que los datos eran uno de los componentes más importantes para el éxito de su modelo. Pero me pareció extraño que la gente no prestara tanta atención o tiempo a preguntar: «¿Qué hay en mi conjunto de datos?». Así fue como me interesé en este espacio. Y luego, con el tiempo, comencé a realizar auditorías de conjuntos de datos a gran escala.

P: ¿Puede hablarnos de su trabajo sobre los fundamentos éticos de la IA?

R: Todo el mundo tiene una opinión sobre lo que es el aprendizaje automático. Los expertos en aprendizaje automático (personas de la comunidad de IA) dicen que no tiene ningún valor. Es solo matemática, es objetivo, es neutral, etc. Mientras que los académicos de las ciencias sociales dicen que, al igual que cualquier tecnología, el aprendizaje automático codifica los valores de quienes lo impulsan. Así que lo que hicimos fue estudiar sistemáticamente cien de los artículos más influyentes sobre aprendizaje automático para descubrir qué es lo que realmente le importa a este campo y hacerlo de una manera muy rigurosa.

A: ¿Y uno de esos valores fue el escalamiento?

P: La escala se considera el santo grial del éxito. Hay investigadores de grandes empresas como DeepMind, Google y Meta que afirman que la escala supera al ruido y que la escala cancela el ruido. La idea es que, a medida que se aumenta la escala, todo en el conjunto de datos debería equilibrarse por sí solo y debería terminar con algo parecido a una distribución normal o algo más cercano a la realidad. Esa es la idea.

P: Pero su investigación ha explorado cómo la ampliación de la escala puede generar daños. ¿Cuáles son algunos de ellos?

R: Al menos cuando se trata de contenido de odio o toxicidad, etc., escalar estos conjuntos de datos también escala los problemas que contienen. Más específicamente, en el contexto de nuestro estudio, escalar los conjuntos de datos también aumenta el contenido de odio en el conjunto de datos. Medimos la cantidad de contenido de odio en dos conjuntos de datos. El contenido de odio, el contenido dirigido y el contenido agresivo aumentaron a medida que el conjunto de datos se escaló de 400 millones a 2 mil millones. Ese fue un hallazgo muy concluyente que muestra que las leyes de escalamiento realmente no se sostienen cuando se trata de datos de entrenamiento. (En otro artículo) descubrimos que las mujeres de piel más oscura, y los hombres en particular, tienden a ser etiquetados como personas sospechosas o criminales a una tasa mucho mayor.

P: ¿Qué tan esperanzado o confiado está usted de que la industria de la IA realizará los cambios que ha propuesto?

R: No se trata de meros resultados técnicos y matemáticos puros, sino de herramientas que moldean la sociedad y la influyen. Las recomendaciones son que también incentivemos y prestemos atención a valores como la justicia, la equidad, la privacidad, etc. Mi respuesta honesta es que no tengo ninguna confianza en que la industria acepte nuestras recomendaciones. Nunca han aceptado ninguna recomendación como ésta que realmente los anime a tomar en serio estos problemas sociales. Probablemente nunca lo hagan. Las corporaciones y las grandes empresas tienden a actuar cuando es legalmente obligatorio. Necesitamos una regulación muy fuerte y aplicable. También reaccionan a la indignación pública y a la concienciación pública. Si llega a un punto en el que su reputación se ve dañada, tienden a hacer cambios.

© Copyright 2024 The Associated Press. Todos los derechos reservados. Este material no puede ser publicado, transmitido, reescrito o redistribuido sin autorización.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *