El problema de la IA | capitalismo desnudo

El problema de la IA | capitalismo desnudo

Yves aquí. Richard Murphy ofrece un buen y conciso tratamiento de algunos de los límites inherentes de la IA, en particular en las profesiones (se centra en la contabilidad y los impuestos, pero los mismos argumentos se aplican a la medicina y el derecho). Uno de los grandes problemas, que planteé hace muchos años, cuando la minería de datos redujo en gran medida el número de puestos de trabajo de nivel inicial, era que el trabajo de los novatos, como la investigación jurídica, formaba a los nuevos profesionales en los aspectos prácticos de su trabajo. Saltarse ese aspecto significaba que estarían mal formados. Vi eso en la Edad de Piedra de mi juventud. Estaba en el último grupo de novatos de Wall Street que preparaban hojas de cálculo a mano y obtenían los datos de copias impresas de los archivos de la SEC y los informes anuales. Descubrí que mis jóvenes, que descargaban datos a veces erróneos pero nunca corregidos de Computstat, tenían un conocimiento mucho menor de cómo funcionaban las finanzas de las empresas.

Por Richard Murphy, profesor a tiempo parcial de Práctica Contable en la Escuela de Administración de la Universidad de Sheffield, director de la Red de Responsabilidad Corporativa, miembro de Finance for the Future LLP y director de Tax Research LLP. Publicado originalmente en Financiar el futuro

Resumen

Creo que, si bien la IA tiene potencial, no puede reemplazar el juicio y las habilidades humanas en muchas profesiones, incluidas la docencia, la medicina y la contabilidad.

La IA puede automatizar ciertas tareas, pero carece de la capacidad de interpretar señales no verbales y comprender problemas complejos del mundo real.

Los profesionales necesitan experiencia y capacitación para brindar soluciones humanas, y las limitaciones de la IA la hacen inadecuada como reemplazo de la interacción y la experiencia humanas profundas.

El Gaby Hinsliff del Guardian dijo en una columna publicado ayer:

La idea de utilizar la tecnología como una especie de bala mágica que permita al Estado hacer más con menos se ha vuelto cada vez más central en los planes del Partido Laborista para reactivar los servicios públicos británicos con lo que Rachel Reeves sugiere que será un presupuesto dolorosamente ajustado. En una serie de intervenciones de regreso a clases esta semana, Keir Starmer prometió “Avanzar en el aprovechamiento de todo el potencial de la IA”, mientras que el secretario de Ciencia, Peter Kyle, argumentó que automatizar algunas tareas rutinarias, como la calificación, podría liberar tiempo valioso para que los docentes enseñen.

Tiene razón: se trata de una obsesión laborista. El impulso parece provenir del Instituto Tony Blair, cuyo líder epónimo tiene una larga historia de mala interpretación de las capacidades de la tecnología, algo de lo que parece entender poco.

La cuestión concreta a la que se refirió fue el uso de la IA con fines educativos. Los entusiastas de la IA creen que ofrece la oportunidad de crear un programa a medida para cada niño. Como señala Gaby Hinsliff, la idea está fracasando, hasta ahora.

Por supuesto, soy consciente de que la mayoría de las innovaciones tienen que fracasar antes de tener éxito: así es, en líneas generales, cómo funcionan estas cosas. Sería imprudente decir, en consecuencia, que como la IA aún no ha resuelto este problema, no lo hará. Pero, incluso como alguien que está adoptando activamente la IA en su propio flujo de trabajo, veo grandes problemas en gran parte de lo que hacen los trabajadores y otros.

La reacción inmediata del mercado laboral a la IA parece ser la de rebajar la calidad de los candidatos que se buscan, ya que los empleadores piensan que la IA reducirá la demanda de personas con habilidades en el futuro. Y sí, has oído bien: se parte del supuesto de que las habilidades especializadas serán sustituidas por la IA en muchas áreas. Los graduados están sufriendo mucho por esta actitud en estos momentos.

En contabilidad, por ejemplo, esto se debe a que se supone que se requerirán muchos menos conocimientos fiscales, ya que la IA podrá responder preguntas complejas. De manera similar, se supone que la IA se hará cargo de la producción de datos complejos. cuentasMe gusta el cuentas consolidadas de grupos de empresas.

Quienes hacen tales suposiciones son increíblemente ingenuos. Incluso si la IA pudiera encargarse de algunas partes de estos procesos, se generarían enormes problemas como consecuencia, el mayor de los cuales, con diferencia, sería que nadie tendría las habilidades necesarias para saber si lo que la IA ha hecho es correcto.

Para llegar a ser un experto en materia fiscal es necesario leer mucho sobre el tema, escribir mucho sobre él (normalmente para asesorar a un cliente) y corregir el trabajo cuando alguien superior a uno dice que no lo has hecho bien. El aprendizaje humano es un proceso profundamente iterativo.

Los empleadores parecen pensar que pueden acabar con gran parte de esto. Lo hacen porque quienes deciden que es posible eliminar los puestos de formación han pasado por ellos y, como resultado, han adquirido las habilidades necesarias para comprender su tema. En otras palabras, saben lo que se supone que debe hacer la IA. Pero cuando esas pocas personas que se contratarán ahora alcancen un punto de autoridad similar, no sabrán lo que está haciendo la IA. Simplemente tendrán que asumir que es lo correcto porque carecerán de las habilidades para saber si eso es cierto o no.

La lógica de los defensores de la IA es, en ese caso, la misma que utilizan personas como Wes Street cuando abogan por el uso de médicos adjuntos, que son médicos clínicos parcialmente formados que ahora trabajan en el NHS e incluso realizan operaciones, pero sin tener ni de lejos la profundidad de conocimientos necesaria para llevar a cabo las tareas que se les piden. Están formados para responder a las preguntas que se les plantean. El problema es que puede que se les haya hecho la pregunta equivocada, y entonces fracasan y causan daños.

Lo mismo ocurre con la IA: responde a la pregunta que se le plantea. El problema es cómo resuelve el problema que no se le plantea, y muy pocas veces un cliente plantea la pregunta correcta cuando se trata de impuestos. La verdadera habilidad profesional consiste, en primer lugar, en averiguar qué es lo que realmente quieren, en segundo lugar, en averiguar si lo que quieren es siquiera sensato y, en tercer lugar, en replantear la pregunta para que sea una que pueda abordar sus necesidades.

El problema de hacer eso es que se trata de una cuestión que tiene que ver con la interacción humana, pero que también requiere que se entienda todo el aspecto técnico de las cuestiones que se analizan (que generalmente involucran múltiples impuestos, además de algo de contabilidad y muy a menudo algo de ley) para que se pueda realizar el replanteamiento apropiado, todo lo cual requiere un juicio considerable.

¿Pienso que la IA está siquiera cerca de llevar a cabo esa tarea? No, no lo creo.

¿Estoy convencido de que la IA pueda llevar a cabo alguna vez esa tarea? También lo dudo, como también dudo de su capacidad para abordar muchos problemas médicos y profesionales.

¿Por qué? Porque para responder a este tipo de preguntas es necesario saber leer al cliente, incluidas todas sus señales no verbales y de otro tipo. Los aspectos técnicos son una pequeña parte del trabajo, pero sin conocer el elemento técnico, el profesional, de cualquier ámbito (y en esa categoría incluyo todas las ocupaciones especializadas de todo tipo) no tiene ninguna posibilidad de formular su pregunta correctamente ni de saber si la respuesta que da es correcta o no.

En otras palabras, si a los jóvenes profesionales se les niega la oportunidad de cometer todos los errores establecidos, como sucedería si la IA los reemplazara, entonces la posibilidad de que realmente sepan lo suficiente para resolver problemas del mundo real planteados por personas del mundo real es muy baja, sobre todo porque casi nadie que busca la ayuda de un profesional quiere una respuesta técnica a ninguna pregunta.

Quieren que las luces funcionen.

Quieren que el dolor desaparezca.

Quieren pagar la cantidad correcta de impuestos sin riesgo de error.

Quieren divorciarse con el mínimo estrés.

El trabajo del profesional no es decirles cómo hacer estas cosas, sino brindar soluciones humanas a problemas humanos. Y no pueden hacerlo si no comprenden al ser humano que tienen frente a ellos y el problema técnico. Si utilizan la IA para hacer la parte técnica, lo que queda es una sonrisa cálida, vacía y sin sentido que no brinda consuelo a nadie.

No digo que no debamos usar la IA. Sé que lo haremos, pero quien piense que puede reemplazar gran parte de la interacción humana está muy equivocado: no creo que pueda, precisamente porque los humanos hacen preguntas completamente ilógicas que requieren que un humano descubra lo que significan.

Y es también por eso que creo que Gaby Hinsliff tiene razón al decir que la IA sólo puede tener un papel limitado en el aula cuando concluye:

Es cierto que la IA, si se utiliza correctamente, tiene una enorme capacidad para hacer el bien, pero, como el propio Starmer sigue diciendo, no hay respuestas fáciles en política, ni siquiera si le preguntas a ChatGPT.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *