¿Es la IA la respuesta para lograr mejores servicios gubernamentales?

¿Es la IA la respuesta para lograr mejores servicios gubernamentales?

Por Peter García, Reportero de tecnología

imágenes falsas

Los gobiernos están explorando si la IA puede brindar asesoramiento confiable

Mucho antes de que apareciera ChatGPT, los gobiernos estaban interesados ​​en utilizar chatbots para automatizar sus servicios y asesoramiento.

Los primeros chatbots «tendían a ser más simples, con capacidades de conversación limitadas», dice Colin van Noordt, investigador sobre el uso de IA en el gobierno, con sede en los Países Bajos.

Pero el surgimiento de la IA generativa en los últimos dos años ha revivido una visión de un servicio público más eficiente, donde asesores similares a los humanos pueden trabajar a toda hora, respondiendo preguntas sobre beneficios, impuestos y otras áreas en las que el gobierno interactúa con el público.

La IA generativa es lo suficientemente sofisticada como para dar respuestas similares a las humanas y, si se la entrena con suficientes datos de calidad, en teoría podría lidiar con todo tipo de preguntas sobre los servicios gubernamentales.

Pero la IA generativa se ha vuelto conocida por cometer errores o incluso dar respuestas sin sentido: las llamadas alucinaciones.

En el Reino Unido, el Servicio Digital Gubernamental (GDS) ha llevado a cabo pruebas en un chatbot basado en ChatGPT llamado GOV.UK Chat, que respondería a las preguntas de los ciudadanos sobre una variedad de temas relacionados con los servicios gubernamentales.

En una publicación de blog sobre sus primeros hallazgosLa agencia señaló que casi el 70% de los involucrados en el ensayo encontraron útiles las respuestas.

Sin embargo, hubo problemas con «algunos» casos en los que el sistema generó información incorrecta y la presentó como hechos.

El blog también planteó la preocupación de que pudiera haber una confianza equivocada en un sistema que podría estar equivocado algunas veces.

“En general, las respuestas no alcanzaron el nivel más alto de precisión que exige un sitio como GOV.UK, donde la precisión de los datos es crucial. Estamos repitiendo rápidamente este experimento para abordar los problemas de precisión y confiabilidad”.

imágenes falsas

Portugal prueba un chatbot impulsado por IA

Otros países también están experimentando con sistemas basados ​​en IA generativa.

Portugal lanzó en 2023 la Guía Práctica de Justicia, un chatbot diseñado para responder preguntas básicas sobre temas sencillos como el matrimonio y el divorcio. El chatbot se ha desarrollado con fondos del Mecanismo de Recuperación y Resiliencia (FRR) de la Unión Europea.

El proyecto, que ha costado 1,3 millones de euros (1,4 millones de dólares; 1,1 millones de libras esterlinas), se basa en el modelo de lenguaje GPT 4.0 de OpenAI. Además de cubrir el matrimonio y el divorcio, también proporciona información sobre la creación de una empresa.

Según datos del Ministerio de Justicia portugués, en los primeros 14 meses del proyecto se plantearon 28.608 preguntas a través de la guía.

Cuando le hice la pregunta básica: «¿Cómo puedo crear una empresa?», funcionó bien.

Pero cuando pregunté algo más complicado: «¿Puedo crear una empresa si soy menor de 18 años, pero estoy casado?», se disculpó por no tener la información para responder a esa pregunta.

Una fuente del ministerio reconoce que aún les falta fiabilidad, aunque las respuestas erróneas son raras.

“Esperamos que estas limitaciones se superen con un aumento decisivo del nivel de confianza en las respuestas”, me dice la fuente.

Colin van Noordt

Los chatbots no deberían sustituir a los funcionarios públicos, afirma Colin van Noordt

Estos fallos hacen que muchos expertos aconsejen cautela, entre ellos Colin van Noordt: “Todo sale mal cuando se utiliza un chatbot como forma de reemplazar a personas y reducir costes”.

Sería más sensato, añade, considerarlos «un servicio adicional, una forma rápida de encontrar información».

Sven Nyholm, profesor de ética de la inteligencia artificial en la Universidad Ludwig Maximilians de Múnich, destaca el problema de la rendición de cuentas.

“Un chatbot no es intercambiable con un funcionario público”, afirma. “Un ser humano puede rendir cuentas y ser moralmente responsable de sus acciones.

«Los chatbots de IA no pueden rendir cuentas de lo que hacen. La administración pública exige rendición de cuentas y, por lo tanto, requiere de seres humanos».

El señor Nyholm también destaca el problema de la fiabilidad.

«Los nuevos tipos de chatbots crean la ilusión de ser inteligentes y creativos de una manera que los tipos de chatbots más antiguos no solían hacer.

«De vez en cuando, estas nuevas y más impresionantes formas de chatbots cometen errores tontos y estúpidos; esto a veces puede ser gracioso, pero también puede ser potencialmente peligroso si la gente confía en sus recomendaciones».

imágenes falsas

El gobierno de Estonia es pionero en el uso de chatbots

Si ChatGPT y otros grandes modelos lingüísticos (LLM) no están preparados para ofrecer asesoramiento importante, entonces tal vez podríamos considerar a Estonia como una alternativa.

Estonia es uno de los países líderes en materia de digitalización de los servicios públicos. Desde principios de los años 90 ha ido creando servicios digitales y en 2002 introdujo una tarjeta de identificación digital que permite a los ciudadanos acceder a los servicios estatales.

No es sorprendente entonces que Estonia esté a la vanguardia en la introducción de chatbots.

Actualmente, el gobierno está desarrollando un conjunto de chatbots para los servicios estatales bajo el nombre de Bürokratt.

Sin embargo, los chatbots de Estonia no se basan en grandes modelos de lenguaje (LLM) como ChatGPT o Gemini de Google.

En su lugar, utilizan el procesamiento del lenguaje natural (PLN), una tecnología que precedió a la última ola de IA.

Los algoritmos de PNL de Estonia dividen una solicitud en pequeños segmentos, identifican palabras clave y a partir de ahí infieren lo que quiere el usuario.

En Bürokratt, los departamentos utilizan sus datos para entrenar chatbots y comprobar sus respuestas.

«Si Bürokratt no sabe la respuesta, el chat se transferirá al agente de atención al cliente, quien se hará cargo del chat y responderá manualmente», dice Kai Kallas, jefe del Departamento de Servicios Personales de la Autoridad del Sistema de Información de Estonia.

Es un sistema de potencial más limitado que uno basado en ChatGPT, ya que los modelos de PNL están limitados en su capacidad para imitar el habla humana y detectar indicios de matices en el lenguaje.

Sin embargo, es poco probable que den respuestas erróneas o engañosas.

«Algunos de los primeros chatbots obligaban a los ciudadanos a elegir opciones para las preguntas. Al mismo tiempo, permitían un mayor control y transparencia sobre cómo funcionaba el chatbot y cómo respondía», explica Colin van Noordt.

«Los chatbots basados ​​en LLM suelen tener una calidad mucho mayor conversacional y pueden proporcionar respuestas más matizadas.

«Sin embargo, esto tiene el coste de un menor control del sistema y también puede proporcionar diferentes respuestas a la misma pregunta», añade.

Más tecnología de negocios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *