La IA facilita sus propias transiciones en el mercado laboral

La IA facilita sus propias transiciones en el mercado laboral

Un teléfono inteligente muestra íconos para programas de IA con modelos de lenguaje grandes.

En la lista de riesgos existenciales que plantea una sociedad post-escasez impulsada por la IA, la accesibilidad y la equidad son preocupaciones fundamentales para los investigadores y especialistas en ética.

Sin contexto, es fácil aceptar crédulamente tales preocupaciones como predicciones confiables. Con la misma facilidad se pueden descartar estas preocupaciones considerándolas señales de virtud sin mérito.

Sin embargo, con un poco más de contexto, queda claro que estas preocupaciones no son infundadas. Pero existe una solución a estos problemas potenciales donde menos se espera: la propia IA.

Hablemos de prejuicios.

Las preocupaciones sobre la ‘IA sesgada’ se pueden organizar en dos categorías: sesgo en la creación del modelo (datos que contienen o reflejan sesgos) y sesgo en la implementación del modelo (quién recibe acceso y cómo interactúa con él). Actualmente nos preocupa el sesgo final: cómo los usuarios pueden obtener valor de una IA altamente inteligente, universalmente accesible y alineada.

Asumimos que la creación de modelos imparciales no es una preocupación, lo que refleja el estado actual de las cosas. Mitigar el sesgo en la creación de modelos no es inherentemente político ni se trata en la práctica como tal. Los modelos necesitan datos útiles para producir resultados útiles para los humanos que los aprovechan: los laboratorios de IA discuten los datos sobre la base de la calidad, cuyo criterio es apolítico.

También asumimos que se resuelve la «alineación del modelo» en el nivel posterior a la capacitación. Actualmente, esto es una preocupación.

Los investigadores de aprendizaje automático se centran en maximizar las capacidades generales de los nuevos modelos, mientras que el personal de diseño y productos de lanzamiento al mercado se centra en aprovechar estas capacidades de una manera alineada con el negocio, que mitigue los riesgos y minimice las controversias. En pocas palabras, el despliegue de un producto “equitativo” como Géminis de Google no es un reflejo del modelo subyacente sino de cómo una empresa decide comercializarlo de manera alineada.

¿Deberíamos preocuparnos de que la toma de decisiones de “minimización de riesgos” se concentre en manos de unos pocos? Ciertamente, pero este es un tema para otro momento.

Nuestro enfoque aquí se basa en considerar si el ser humano promedio será o no equipado utilizar el omnipresente producto de IA del futuro: uno que sea gratuito, esté disponible universalmente e inmensamente poderoso.

La preocupación es la siguiente: la tecnología es tan poderosa como el valor que los usuarios obtienen de ella. Si una nueva tecnología poderosa es demasiado complicada o requiere mucho tiempo para ser adoptada por las masas, éstas no podrán adoptarla. Por lo tanto, no es difícil imaginar un futuro de IA en el que el poder de estas tecnologías recaiga únicamente en los trabajadores bien educados y con el conocimiento adecuado para aprovecharlo. Aquellos que ya están favorecidos en muchos sentidos.

Algún contexto: en Estados Unidos, la pobreza extrema (aquellos que viven con menos de 2,15 dólares al día) es básicamente inexistente. datos de 2021 del Plataforma sobre pobreza y desigualdad del Banco Mundial reporta 0.25 por ciento. Incluso según los estándares nacionales, el porcentaje de estadounidenses que viven por debajo del umbral de pobreza disminuyó del 15,1 por ciento en 1993 al 11,5 por ciento en 2023 según los estándares nacionales. Oficina del Censo de EE.UU. No solo hay menos estadounidenses pobres –desde cualquier punto de vista– sino que el ingreso medio real de los hogares ha aumentado sustancialmente desde la década de 1990: 59.210 dólares (1992) y 74.580 dólares (2022). según la Reserva Federal de St. Louis.

Independientemente del nivel absoluto de ingresos obtenidos por los estadounidenses, abundan las preocupaciones sobre los ingresos. falta de equidad. Antes de la pandemia, Índice de Gini de Estados Unidosuna medida de la desviación de la distribución del ingreso de la igualdad perfecta, aumentó de un mínimo local de 38,0 en 1990 a un máximo absoluto de 41,5 en 2019. Esta tendencia se ha cumplido desde mediados de los años con un coro de preocupación por un mercado laboral polarizado en el que los trabajadores altamente calificados se enriquecen mientras que los poco calificados se empobrecen. Por lo tanto, no sorprende que el auge de la IA (un complemento complejo de la tecnología preexistente que ya es inaccesible para personas poco cualificadas) aumente estas preocupaciones.

Pero el auge de la IA en sí debería realmente mitigar estas preocupaciones sobre los beneficios distributivos desiguales.

A largo plazo, una IA suficientemente inteligente será universalmente accesible. Este sistema hipotético será muy eficaz, más que cualquier humano, a la hora de interpretar órdenes y proporcionar valor a cualquier persona de cualquier origen. Mientras un humano tenga alguna interfaz con la IA (voz, texto, impulsos neuronales), una IA generalmente inteligente podrá interpretar e interactuar con cualquier humano, sin pérdida de información.

Aquellos preocupados por los impactos de la IA en el mercado laboral deben comprender que desacelerar o detener el desarrollo de la IA perjudica directamente la accesibilidad del modelo.

Y si AGI no fuera innovador con esta accesibilidad universal, solo incentivaría a una empresa de tecnología a desarrollar esta capacidad como una forma de diferenciar horizontalmente su software. Mientras tanto, sin embargo, AGI no está aquí. Y las herramientas de inteligencia artificial como ChatGPT no son accesibles ni adoptadas universalmente. ¿Cómo se suaviza esta transición sin exacerbar las desigualdades educativas y económicas existentes? IA, por supuesto.

La IA, específicamente los modelos de lenguaje grande (LLM), la clase reciente de modelo que impulsa productos similares a ChatGPT, son fundamentalmente fuertes en, bueno, modelar el lenguaje. Podría ser un lenguaje escrito o hablado (inglés), un lenguaje de programación (Python) o cualquier lenguaje nuevo o inventado que pueda representarse y almacenarse como un conjunto de símbolos. Los LLM son tan efectivos en este modelado que pueden reconstruir lenguas casi extintas con solo 100 ejemplos escritos.

Los LLM “incitadores”, la interfaz mediante la cual dirigimos productos como ChatGPT para producir resultados útiles, es solo otro lenguaje. De manera similar a cómo interpretamos las demandas gramaticalmente incorrectas de un niño pequeño frustrado o las órdenes ininterpretables de un perro que ladra, los LLM pueden actuar como intérpretes del «lenguaje de indicaciones» de una manera que los haga universalmente accesibles en el corto plazo. No debería sorprender que los LLM sean muy eficaces para motivarse a sí mismos o a otros modelos dados ejemplos de grandes motivaciones. Esta capacidad aumenta la accesibilidad al aliviar la carga de aprender un «nuevo idioma» del usuario y colocarla en el sistema que utiliza para interactuar con el modelo.

No debería sorprender que la naturaleza paradójicamente restrictiva y abierta de los LLM: ¿Qué se le pide a algo que supuestamente puede hacerlo todo? – dificulta su uso para la mayoría de las personas. Gran parte de este problema se debe a que la gente no sabe cómo obtener los resultados correctos. No hace mucho, las masas no entendían los motores de búsqueda como Google, lo que obligaba a las personas a través de la experiencia a aprender a buscar en Google páginas web de la manera adecuada. Enviar una consulta de búsqueda es igualmente un nuevo idioma para aprender, al igual que solicitar un modelo de idioma. Y, así como uno podría buscar en Google “¿cómo uso Google?”, uno puede preguntarle a un LLM “¿cómo puedo solicitar un LLM”? O mejor aún, una empresa que cree una experiencia similar a ChatGPT podría competir en el mercado con un software que comprenda esta necesidad implícita del usuario y la aborde de manera efectiva.

En su forma actual, la IA es funcionalmente capaz de ser accesible universalmente. En la práctica, ya estamos viendo las limitaciones actuales de las capacidades de interpretación del modelo, como era de esperar. Pero cualquiera que esté preocupado por el crecimiento de esta brecha con el tiempo, no debe preocuparse: la competencia del modelo está positivamente alineada con la accesibilidad.

Jack Nicastro

Jacobo Nicastro Es estudiante de último año en Dartmouth College con especialización en Economía y Filosofía.

Es productor ejecutivo de la Fundación para la Educación Económica, dirige la Casa Hazlitt de Periodismo y Creación de Contenido de Students For Liberty y es director de programación de Dartmouth Libertarians. Jack fue pasante de investigación en el Instituto Americano de Investigaciones Económicas.

Reciba notificaciones de nuevos artículos de Jack Nicastro y AIER.

Samuel Crombie

Samuel Crombie es actualmente gerente de producto en Microsoft con sede en Seattle, WA, donde trabaja en funciones de inteligencia artificial para Edge Browser. Sam se graduó de Dartmouth College en 2023 con una licenciatura en Ciencias de la Computación.

Reciba notificaciones de nuevos artículos de Samuel Crombie y AIER.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *