Cinco preguntas para Fei-fei Li de Stanford

Cinco preguntas para Fei-fei Li de Stanford

Hola y bienvenido a la edición de esta semana de El futuro en 5 preguntas. Esta semana entrevistamos a Fei-Fei Li, de la Universidad de Stanford, científico informático y codirector del Instituto de Inteligencia Artificial Centrada en el Humano de Stanford, que trabajó en el gobierno de Biden. Grupo de trabajo nacional de recursos de investigación de inteligencia artificial. En su nuevo libro “Los mundos que veo: curiosidad, exploración y descubrimiento en los albores de la IA”, escribe sobre la importancia de centrar los sistemas de IA en torno a objetivos y deseos humanos, la fundación de su instituto para lograr ese objetivo y la importancia de ampliar el círculo de voces involucradas en las políticas de IA, todos temas tratados en esta entrevista. Esta conversación ha sido editada y condensada para mayor claridad:

¿Cuál es una gran idea subestimada?

El debate en torno a la IA está sacando de la conversación la acción humana, desde la tecnología misma hasta las políticas. Los seres humanos tenemos una relación profunda con las máquinas y la tecnología en la que realmente deberíamos invertir y explorar.

Existe una gran posibilidad de que esta tecnología pueda potenciar a los humanos. Los grandes modelos lingüísticos tienen un enorme potencial para ser copilotos para los trabajadores del conocimiento, pero chocan con las preocupaciones sobre los cambios en los empleos. Si aprovechamos lo que esta tecnología puede ofrecer y la desarrollamos en una dirección que sea mucho más colaborativa, en lugar de ser una tecnología de reemplazo, realmente podremos aprovechar el capital humano y los talentos humanos de manera profunda. Hay muchas cosas que la IA puede hacer, pero hay que poner a los humanos en el centro.

¿Cuál es la tecnología que crees que está sobrevalorada?

La idea de la «sensibilidad» de la IA. Ésta es una cuestión intelectual que vale la pena explorar, y la sensibilidad humana también sigue siendo una cuestión entre los filósofos. Pero el revuelo aquí gira en torno a la retórica pesimista sobre la sensibilidad de la IA, que impide reconocer los riesgos inmediatos, reales y potencialmente catastróficos de la tecnología. Necesitamos mucha mano de obra para trabajar en ellos. Si nos concentramos demasiado en un debate profundamente intelectual sobre la sensibilidad, le quitamos parte del enfoque más inmediato.

¿Qué libro marcó más su concepción del futuro?

“Homo Deus” es un buen libro para esta conversación. No puedo decir que esté de acuerdo con todo lo que contiene, pero es un buen libro proveniente de un filósofo e historiador, que analiza la trayectoria de la humanidad y la civilización, y la relación entre los humanos y la fuerza mayor de lo divino, y finalmente llega a una Conjeturamos que poderosos algoritmos funcionarán de una manera tan profunda e impactante que darán forma a la relación de los humanos con el concepto de Dios. Es un ejemplo de un discurso multidisciplinario que invita no sólo a tecnólogos, sino también a humanistas, y creo que es realmente importante.

Incluso cuando estaba escribiendo mi libro, no quería escribir simplemente un libro sobre tecnología pura. El arco del libro es un científico que finalmente se convierte en humanista, porque en el futuro necesitaremos que los científicos, los científicos sociales, los humanistas y todos los habitantes del planeta tengan una comprensión moral del mundo a medida que tecnologías poderosas como la IA dan forma a nuestra civilización.

¿Qué podría estar haciendo el gobierno con respecto a la tecnología que no esté haciendo?

Lo que me preocupa es que la atención del gobierno hacia la IA parece ser más bien un enamoramiento total del producto basado en esfuerzos comerciales. La conversación que está ocurriendo ahora se centra en los líderes comerciales. No estoy diciendo que no haya ninguna participación con el sector público, pero la falta de compromiso del liderazgo del sector público, la falta de voces del sector público en IA y políticas, es profundamente preocupante.

Por ejemplo, recientemente lanzamos una evaluación de todos los modelos de lenguaje grandes publicados públicamente con los índices de privacidad o transparencia de la Ley de IA de la UE. Imagínese si eso viniera de una empresa privada. ¿Vas a confiar en eso? El gobierno debería invertir no sólo en investigación de IA, nube y repositorios de datos, sino también adoptar una mentalidad de disparo a la luna e invertir en laboratorios nacionales, laboratorios regionales y personal. Me preocupa que estas voces no estén en la mesa.

¿Qué es lo que más te ha sorprendido este año?

2023 resultó ser el año de la política de IA. Formé parte del Grupo de Trabajo Nacional de Recursos de Investigación de IA durante los últimos dos años, planificamos durante dos años y enviamos el plan al Congreso, y ahora el Ley CREAR IA está activo y patrocinado por miembros bipartidistas.

Realmente esperamos que ese tipo de inversión en el sector público ayude a remodelar el desequilibrio que vemos y agregue algunos recursos realmente necesarios. El gobierno está prestando atención, mirando la inversión, está la orden ejecutiva, las cumbres y las reuniones convocadas por los líderes del gobierno.

Aunque Elon Musk abandonó el segundo día de la Cumbre de Seguridad de la IA del Reino Unido, Anoche se unió al Primer Ministro del Reino Unido, Rishi Sunak, en Londres para una entrevista extremadamente amigable.

Eso es según Tom Bristow y Dan Bloom de POLITICO, quienes resumió la conversación de anoche – escribiendo que aunque «el formato estaba destinado a ser Sunak entrevistando a Musk… las largas preguntas del primer ministro divergieron en enumerar sus propios logros y elogiar al magnate de la tecnología».

Aún así, la conversación fue ocasionalmente reveladora en lo que respecta a las opiniones del propio Musk sobre la IA. Agradeció a Sunak por invitar a China a la cumbre y dijo: “Tenerlos aquí es esencial. Si no son participantes, no tiene sentido”. Predijo que la IA marcaría el comienzo de un futuro en el que “puedes tener un trabajo si quieres tenerlo… pero la IA podrá hacerlo todo”. Y sobre la cuestión principal de «seguridad» de la cumbre de esta semana, afirmó (de manera algo vaga) la necesidad de que los modelos tengan un «árbitro» incorporado y un «interruptor de apagado» que pueda «llevarlo a un estado seguro».

Ah, y luego estuvo la cumbre real: El segundo día concluyó con un acuerdo entre los gobiernos del mundo y las principales empresas de IA para probar modelos antes de lanzarlos para uso público.

Vincent Manancourt y Tom Bristow de POLITICO reportado en El acuerdo, firmado por Australia, Canadá, la Unión Europea, Francia, Alemania, Italia, Japón, Corea, Singapur, Estados Unidos y el Reino Unido, y en el lado privado del acuerdo, Amazon Web Services, Anthropic, Google, Google DeepMind. , Inflexión AI, Meta, Microsoft, Mistral AI y OpenAI.

Sunak dijo que las empresas acordaron brindar más acceso a su Grupo de trabajo de IA de frontera. También dio detalles sobre un acuerdo alcanzado entre 28 países para formar un panel asesor internacional sobre el riesgo de la IA inspirado en el Panel Intergubernamental sobre Cambio Climático, que ayudará al académico Yoshua Bengio a producir un informe sobre el «Estado de la ciencia» en algún momento del próximo año.