Cinco preguntas para Yasmin Green de Google

Cinco preguntas para Yasmin Green de Google

Con la ayuda de Derek Robertson y Mark Scott

NOTA DE PROGRAMACIÓN: Estaremos libres este lunes para el Día de los Pueblos Indígenas, pero volveremos a sus bandejas de entrada el martes 10 de octubre.

¡Es viernes! Buenas noticias y bienvenidos de nuevo a El futuro en 5 preguntas. Hoy tenemos a Yasmin Green, directora ejecutiva de Jigsaw, una división de Google que investiga y aborda la toxicidad en línea, el extremismo violento y la desinformación. Vogue una vez la llamó «la principal cazadora de trolls internacional» de Google. Ex consultor de Booz Allen Hamilton, los roles anteriores de Green en Google incluyen negociar acuerdos para distribuir contenido y dirigir la estrategia de ventas. A mediados de la década de 2010, copresidió el grupo de trabajo de la Comisión Europea sobre radicalización en línea. Preside el Grupo de Ciberseguridad de EE. UU. de Aspen Digital y forma parte de la junta directiva de la Liga Antidifamación.

Continúe leyendo para escuchar las opiniones de Green sobre los conflictos productivos, la trayectoria de los deepfakes y el uso de la IA para atravesar el ruido del debate democrático.

Esta entrevista ha sido editada para mayor extensión y claridad.

¿Cuál es una gran idea subestimada?

Teniendo en cuenta que gran parte del debate sobre la IA y la democracia ha sido negativo, la gran idea es que la IA puede utilizarse para facilitar el discurso productivo.

En Jigsaw, trabajamos mucho sobre cómo los autócratas han desarrollado una Internet que se alinea perfectamente con su ideología gobernante. Tienen un trabajo mucho más fácil porque no se permite la disidencia en las autocracias. En las democracias necesitamos que las ideas entren en conflicto entre sí. Y tenemos una Internet donde eso sucede. Pero no se hace de una manera que promueva la comprensión, el compromiso, la empatía o cualquiera de las cosas que se esperan del discurso productivo..

Hay un término acuñado por un becario de Harvard, Aviv Ovadya, llamado sistemas de puente – algoritmos para salvar, supongo, las divisiones entre comunidades. Durante el último año, hemos estado pensando en Jigsaw’s API de perspectiva – un conjunto de clasificadores para moderar sistemas de comentarios – a través de la lente de sistemas puente. The New York Times, The Wall Street Journal, Wikipedia, Reddit: todos utilizan la API. Y el objetivo es realmente poner en conflicto a personas con puntos de vista opuestos. No estás tratando de resolver o eliminar los conflictos, sino de transformarlos en conflictos productivos.

Tenemos clasificadores experimentales como constructividad, anécdotas personales y búsqueda de comprensión. Con los LLM más recientes y muy sofisticados, podemos identificar esos atributos del discurso y brindar a los moderadores la oportunidad de clasificar según estos nuevos clasificadores. Las personas en los espacios de comentarios están mucho más contentas con este nuevo enfoque, que creo que es un ejemplo de metodología puente.

¿Cuál es la tecnología que crees que está sobrevalorada?

Detección de deepfake como solución independiente a largo plazo. Esa nunca será la solución infalible, en parte porque los detectores están entrenados en un conjunto de datos que contiene deepfakes de un determinado conjunto de generadores. Y cuanto más diversos y prevalentes se vuelven los generadores de deepfakes, menos probable es que un detector se generalice a todos ellos. Luego, por supuesto, se ha motivado a malos actores que están expresamente entrenados para eludir o eludir la detección.

La expectativa de los deepfakes es que eventualmente se conviertan indistinguible de lo real. Si estás creando una imagen que podría haber sido tomada con una cámara, ningún algoritmo podrá detectar la diferencia. Y creo que esa es la trayectoria.

¿Qué libro marcó más su concepción del futuro?

Ray Kurzweil”Cómo crear una mente: El secreto del pensamiento humano revelado”. Básicamente es él quien describe cómo funciona el cerebro y cómo el aprendizaje automático intenta emularlo. En el momento [I read it] Tenía una niña pequeña y ella estaba aprendiendo cosas mediante el reconocimiento de patrones. Y estábamos desarrollando Perspective API (los modelos de aprendizaje automático que les mencioné) al mismo tiempo.

Yo diría: «Vaya, las modelos pueden evaluar ese comentario que nunca antes habían visto porque han visto muchos otros comentarios». Y luego pensé: «Vaya, mi hija puede entender cómo decir esa frase».

Pero lo curioso fue que entonces pensábamos: «¿Qué quieres decir con que los datos de entrenamiento tenían este sesgo sistémico?» Al final, cada vez que la gente dice la palabra “musulmán” en los comentarios, invariablemente es un comentario negativo. Entonces el modelo intuyó que “musulmán” tenía una asociación negativa. Y me golpeo la cabeza contra el escritorio. Luego llego a casa y mi hija usa una gramática incorrecta. No es correcto porque ella estaba observando, en su proceso de aprendizaje, los datos de entrenamiento sesgados de su vida. Así que todo esto fue como fuegos artificiales para mí.

¿Qué podría estar haciendo el gobierno con respecto a la tecnología que no esté haciendo?

Dentro del tipo de universo de sistemas puente, existe la idea de que la IA ayude con la democracia deliberativa.

El planteamiento del problema ahora es que no se puede hacer que muchas personas participen en una conversación y al mismo tiempo sean escuchadas. Acabamos de celebrar la semana de la Asamblea General de la ONU en Nueva York. Si el formato para estas cosas es que tienes tres minutos para hablar, tienes que sentarte allí como una maceta y esperar como una hora y media a que otras 30 personas tengan esos tres minutos para hablar. Realmente no hemos descubierto, ni en línea ni fuera de línea, un mecanismo para que un gran número de personas participen en una discusión y también que sus voces sean escuchadas.

Lo realmente interesante es que el gobierno taiwanés ha aplicado un software llamado Polis (un software de código abierto diseñado para facilitar el discurso democrático) en algo llamado vTaiwan. De hecho, lo han utilizado para elaborar 26 legislaciones diferentes. Tienen un ministro digital realmente pionero, Audrey Tang¿Quién está haciendo eso? Esta es una conversación mucho más limitada y estructurada. Tienes un mensaje, estás invitando a todos a hablar, pero no se responden entre sí. Si le preguntas a la ministra digital de Taiwán, ella dice que una de las principales razones por las que no tienen toxicidad es que las personas no se responden entre sí.

Especialmente con la IA, puedes sintetizar y visualizar las posiciones de las personas sobre los temas y puedes hacer que voten y que sea iterativo. Me encantaría ver que el gobierno sea un caso de uso de la IA para promover resultados democráticos.

¿Qué te ha sorprendido más este año?

Internet se ha visto sacudida por los cambios en Twitter [now renamed X] — su propiedad, su nombre, sus políticas y su cultura. Lo que me sorprendió es la gran cantidad de clones y derivados de Twitter y sitios web de microblogging que se han creado en pos de la promesa que representaba Twitter.

Realmente podríamos estar innovando alejándonos del modelo de expresión de Twitter. Lo que Musk ha hecho es simplemente eliminar algunas de las salvaguardias de moderación que existían. Es posible que la gente esté pensando en devolverlos. Pero ¿qué pasa con un diseño diferente del discurso? Me sorprende que se hayan destinado tantos recursos y energía de personas brillantes a emular esencialmente el diseño de sitios web de microblogging de principios de la década de 2000.

Líderes de las economías más grandes del mundo Se dirigen a Japón la próxima semana para ultimar los detalles finales de las directrices globales voluntarias para el desarrollo de la inteligencia artificial generativa.

El evento principal del Foro de Gobernanza de Internet (al menos para los seguidores de la IA) tendrá lugar el 9 de octubre, cuando los funcionarios del G7 celebren su único evento con las partes interesadas antes de finalizar el llamado Foro de Gobernanza de Internet. Proceso de Hiroshimao compromisos voluntarios sobre inteligencia artificial generativa. Está previsto que esos planes sean aprobados por los ministros digitales del G7, muy probablemente en la segunda quincena de noviembre.

Entre los participantes clave en las discusiones se encuentran la vicepresidenta de la Comisión Europea, Vera Jourova, y Nathaniel Fick, del Departamento de Estado de Estados Unidos.

¿Qué están negociando exactamente? Tres formuladores de políticas de los países del G7 dejaron en claro que los principios subyacentes para la gobernanza de la IA generativa están prácticamente terminados. Esto no es una sorpresa, dado que los países del G7 siguen publicando sus propias políticas internas (voluntarias); uno es de Canadá, que son más o menos un trabajo de copiar y pegar de lo que se anunciará en noviembre.

«Reconocemos la necesidad de gestionar nuevos riesgos y desafíos para los individuos, la sociedad y los valores democráticos y aprovechar los beneficios y oportunidades que brindan los sistemas avanzados de IA», según un estudio reciente. documento del G7.

Los principios son una cosa. Menos claro es el código de conducta voluntario que los funcionarios del G7 están elaborando en torno a la transparencia, la responsabilidad y la seguridad de la IA. Para la Unión Europea, eso incluiría preferiblemente incorporar los conceptos subyacentes incorporados en la Ley de Inteligencia Artificial legalmente vinculante del bloque a lo que acuerde el G7.

No sorprende que Estados Unidos, Japón y el Reino Unido no sean los mayores partidarios de ese enfoque. Esos países están más dispuestos a centrarse en una gobernanza menos estructurada en comparación con lo que pide la UE.

La reunión en Kioto con grupos industriales, académicos y la sociedad civil tiene como objetivo obtener comentarios sobre el código de conducta antes de que esté terminado. (nuestra colega, Clothilde Goujard, sacó la pajita más corta y estará en Japón a partir del sábado si quiere Ponerse en contacto. Ciertamente es un puesto difícil). Se espera que las empresas presionen para centrarse en los riesgos a largo plazo y las exenciones para los sistemas de IA generativa existentes. Es de esperar que los grupos de la sociedad civil pidan más controles sobre cómo se utiliza actualmente la tecnología. — Marcos Scott

La Comisión de Bolsa y Valores está demandando El principal futurista industrial de Estados Unidos.

La SEC demandó Elon Musk ayer en un intento de forzar su testimonio sobre su compra de Twitter por 44 mil millones de dólares el año pasado. El relleno dice que la comisión está investigando si Musk violó la ley de valores. También dicen que Musk se saltó repetidamente las reuniones programadas para su testimonio, diciendo que «no tiene excusa justificable para no cumplir con la citación de la SEC».

Musk escribió en X (de soltera Twitter) que “Se necesita urgentemente una revisión integral de estas agencias, junto con una comisión para tomar medidas punitivas contra aquellos individuos que han abusado de su poder regulatorio para beneficio personal y político”. La SEC investigó por última vez a Musk por sus comentarios de que haría cotizar Tesla a 420 dólares la acción. resolviendo el caso obligándolo a dimitir como presidente de la empresa y pagar 40 millones de dólares en multas. — Derek Robertson