El feliz nuevo mundo del empleo bajo la IA… ¿Qué pasa con las fuerzas compensatorias?

El feliz nuevo mundo del empleo bajo la IA… ¿Qué pasa con las fuerzas compensatorias?

Tu humilde blogger ha echado un vistazo un nuevo documento del FMI sobre el impacto económico previsto, y en particular en el mercado laboral, de la incorporación de la IA a las operaciones comerciales y gubernamentales. Como ha informado ampliamente la prensa empresarial, el FMI anticipa que el 60% de los empleos de las economías avanzadas podrían verse “impactados” por la IA, con la estimación de que la mitad vería ganancias de productividad y la otra mitad vería que la IA reemplazaría su trabajo en parte o en parte. en su conjunto, lo que provoca pérdidas de empleo. No entiendo por qué este resultado no sería válido también para los roles que ven una mejora de la productividad, ya que más productividad => más producción de los trabajadores => no se necesitan tantos trabajadores.

En cualquier caso, este artículo del FMI no es innovador, en consonancia con el hecho de que parece ser una revisión de la literatura existente más algunos análisis basados ​​en documentos clave. Tenga en cuenta también que las categorías laborales se encuentran en un nivel de abstracción bastante alto:

Eso sí, no estoy discutiendo el pronóstico del FMI. Es muy posible que resulte extremadamente preciso.

Lo que me molesta en este artículo, y en muchas otras discusiones sobre el futuro de la IA, es la falta de consideración adecuada a algunos de los impedimentos para su adopción. Empecemos con:

Dificultades para crear conjuntos de entrenamiento suficientemente sólidos. ¿Recuerda los camiones y automóviles autónomos? Esta tecnología fue promocionada como destinada a ser adoptada ampliamente, al menos ya en vehículos de viaje compartido. Si eso hubiera sucedido, habría tenido un gran impacto en el empleo. Conducir un camión o un taxi es una gran fuente de trabajo para las personas con menor nivel educativo, en particular los hombres (y en particular para los ex convictos que tienen grandes dificultades para conseguir trabajos remunerados regulares). Según altLine, citando a la Oficina de Estadísticas Laborales, La conducción de camiones fue la categoría laboral de tiempo completo más importante para los hombres, y representó el 4% del total en 2020. En 2022, American Trucking estimó el número total de camioneros (incluidas las mujeres) en 3,5 millones. Para referencia, Data USA cifra el número total de taxistas en 2021 en 284.000más 1,7 millones de conductores de viajes compartidos en EE. UU., aunque no todos son de tiempo completo.

Un artículo del Guardian de diciembre explicó por qué los coches sin conductor son ahora «en el camino a ninguna parte.” Vale la pena leer el artículo completo, siendo esta una sección clave:

Las empresas de tecnología han subestimado constantemente la enorme dificultad de igualar, y mucho menos mejorar, las habilidades de conducción humana. Aquí es donde la tecnología no ha dado resultados. Inteligencia artificial es un nombre elegante para el “aprendizaje automático”, que suena mucho menos sexy, e implica “enseñar” a la computadora a interpretar lo que sucede en el muy complejo entorno vial. El problema es que hay una enorme cantidad de casos de uso potenciales, que van desde el ejemplo muy utilizado de un camello deambulando por Main Street hasta una simple piedra en el camino, que puede ser o no simplemente una bolsa de papel. Los humanos son excepcionalmente buenos para evaluar instantáneamente estos riesgos, pero si a una computadora no se le ha informado sobre los camellos, no sabrá cómo responder. Fueron las bolsas de plástico que colgaban [pedestrian Elaine] La moto de Herzberg que confundió el ordenador del coche durante seis segundos fatales, según el análisis posterior.

Una forma sencilla de pensar el problema es que las situaciones que la IA debe abordar son demasiado grandes y divergentes para crear conjuntos de entrenamiento remotamente adecuados.

Responsabilidad. La responsabilidad por los daños causados ​​por un algo es otro impedimento para la adopción. Si lees la historia de The Guardian sobre los autos sin conductor, verás que tanto Uber como GM dieron marcha atrás después de los accidentes. Al menos no entraron en el modo Ford Pinto, considerando aceptable un cierto nivel de muerte y desfiguración dadas las ganancias potenciales.

Cabe preguntarse si las aseguradoras de salud considerarán aceptable el uso de la IA en la práctica médica. Si, digamos, un algoritmo da un falso negativo en una prueba de diagnóstico de cáncer (por ejemplo, una imagen), ¿quién es responsable? Dudo que las aseguradoras permitan que los médicos u hospitales intenten culpar a Microsoft o a quien sea el proveedor de IA (y seguramente tendrán cláusulas que limiten severamente su exposición). Además de eso, podría decirse que sería una violación de la responsabilidad profesional subcontratar el juicio a un algo. Además, el médico debería querer que cualquier proveedor de IA haya pagado una fianza o que tenga suficiente peso financiero demostrable para absorber cualquier daño.

Puedo ver fácilmente no sólo a las aseguradoras de salud restringiendo el uso de la IA (no quieren tener que perseguir a más partes para obtener pagos en caso de negligencia o Shit Happens que lo que hacen ahora) sino también a las aseguradoras de responsabilidad profesional, como el autor de negligencia médica. y pólizas de responsabilidad profesional para abogados.

Energía usada. Es probable que el coste energético de la IA dé lugar a restricciones a su uso, ya sea mediante impuestos al usuario final, impuestos sobre los costes informáticos generales o el impacto de los mayores precios de la energía. De Scientific American el pasado mes de octubre:

En los últimos meses, los investigadores han estado dando la alarma general sobre los elevados requisitos energéticos de la IA. Pero un análisis revisado por pares publicado esta semana en Joule es uno de los primeros en cuantificar la demanda que se está materializando rápidamente. Una continuación de las tendencias actuales en capacidad y adopción de IA conducirá a que NVIDIA envíe 1,5 millones de unidades de servidores de IA por año para 2027. Estos 1,5 millones de servidores, funcionando a plena capacidad, consumirían al menos 85,4 teravatios-hora de electricidad al año. más de lo que muchos países pequeños utilizan en un año, según la nueva evaluación.

Eso sí, eso será sólo para 2027. Y tenga en cuenta que los costos de energía también son un reflejo de una mayor instalación de hardware. Nuevamente del mismo artículo, citando al científico de datos Alex de Vries, quien calculó el consumo de energía para 2027:

Puse un ejemplo de esto en mi artículo de investigación: destaqué que si convirtieras completamente el motor de búsqueda de Google en algo como ChatGPT, y todos lo usaran de esa manera, tendrías nueve mil millones de interacciones de chatbot en lugar de nueve mil millones de búsquedas regulares por día—entonces el uso de energía de Google se dispararía. Google necesitaría tanta potencia como Irlanda sólo para ejecutar su motor de búsqueda.

Ahora bien, no va a suceder así porque Google también tendría que invertir 100 mil millones de dólares en hardware para hacerlo posible. e incluso si [the company] Si tenía dinero para invertir, la cadena de suministro no podía entregar todos esos servidores de inmediato. Pero sigo pensando que es útil ilustrar eso si vas a utilizar IA generativa en aplicaciones. [such as a search engine]eso tiene el potencial de hacer que cada interacción en línea requiera muchos más recursos.

Sabotaje. A pesar de que el FMI intenta poner una especie de cara feliz a la revolución de la IA (que algunos se volverán más productivos, lo que podría significar mejores salarios), la realidad es que la gente odia el cambio, particularmente la incertidumbre sobre la permanencia laboral y la supervivencia profesional. El documento del FMI menciona casualmente a los vendedores por teléfono como una categoría laboral lista para ser reemplazada por la IA. No es difícil imaginar a aquellos a quienes les molesta el reemplazo de personas a menudo irritantes con pruebas de algoritmos al menos igual de irritantes para encontrar formas de provocar alucinaciones en la IA y, si tienen éxito, compartir el enfoque. O, alternativamente, encontrar formas de vincularlo, como con grabaciones que pudieran mantenerlo ocupado durante horas (ya que presumiblemente requeriría más trabajo con conjuntos de entrenamiento para enseñarle a la IA cuándo terminar una interacción que deliberadamente consume tiempo).

Otra área de posibles resultados contraproducentes es el uso de la IA en seguridad, particularmente en relación con las transacciones financieras. Una vez más, es posible que el saboteador no tenga que tener tanto éxito como romper las herramientas para robar dinero. En cambio, podrían, como en una versión más sofisticada de la “venganza de los vendedores telefónicos”, intentar bloquear el servicio al cliente o los procesos de validación de seguridad. Medio día de pérdida de acceso de clientes sería muy perjudicial para una institución importante.

Por lo tanto, no estaría tan seguro de que la implementación de la IA sea tan rápida y amplia como describen los entusiastas. Manténganse al tanto.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *