Los chatbots de IA están aquí para ayudar con su salud mental, a pesar de la evidencia limitada de que funcionan

Descargue el chatbot de salud mental Earkick y será recibido por un panda con pañuelo que podría encajar fácilmente en una caricatura infantil.

Empiece a hablar o escribir sobre la ansiedad y la aplicación generará el tipo de declaraciones reconfortantes y comprensivas que los terapeutas están capacitados para ofrecer. Luego, el panda podría sugerir un ejercicio de respiración guiado, formas de replantear los pensamientos negativos o consejos para manejar el estrés.

Todo es parte de un enfoque bien establecido utilizado por los terapeutas, pero no lo llamen terapia, dice la cofundadora de Earkick, Karin Andrea Stephan.

«Cuando la gente nos llama una forma de terapia, está bien, pero no queremos salir y promocionarlo», dice Stephan, un ex músico profesional y autodenominado empresario en serie. «Simplemente no nos sentimos cómodos con eso».

La cuestión de si estos chatbots basados ​​en inteligencia artificial están brindando un servicio de salud mental o son simplemente una nueva forma de autoayuda es fundamental para la emergente industria de la salud digital y su supervivencia.

Earkick es una de los cientos de aplicaciones gratuitas que se están lanzando para abordar una crisis de salud mental entre adolescentes y adultos jóvenes. Debido a que no afirman explícitamente diagnosticar ni tratar afecciones médicas, las aplicaciones no están reguladas por la Administración de Alimentos y Medicamentos. Este enfoque de no intervención está siendo objeto de un nuevo escrutinio con los sorprendentes avances de los chatbots impulsados ​​por IA generativa, tecnología que utiliza grandes cantidades de datos para imitar el lenguaje humano.

El argumento de la industria es simple: los chatbots son gratuitos, están disponibles las 24 horas del día, los 7 días de la semana y no conllevan el estigma que mantiene a algunas personas alejadas de la terapia.

Pero hay datos limitados de que realmente mejoren la salud mental. Y ninguna de las empresas líderes ha pasado por el proceso de aprobación de la FDA para demostrar que trata eficazmente afecciones como la depresión, aunque algunas han iniciado el proceso de forma voluntaria.

«No hay ningún organismo regulador que los supervise, por lo que los consumidores no tienen forma de saber si son realmente efectivos», dijo Vaile Wright, psicóloga y directora de tecnología de la Asociación Estadounidense de Psicología.

Los chatbots no son equivalentes al toma y daca de la terapia tradicional, pero Wright cree que podrían ayudar con problemas mentales y emocionales menos graves.

El sitio web de Earkick afirma que la aplicación no «brinda ningún tipo de atención médica, opinión médica, diagnóstico o tratamiento».

Algunos abogados de salud dicen que esas exenciones de responsabilidad no son suficientes.

«Si realmente le preocupa que la gente utilice su aplicación para servicios de salud mental, necesita un descargo de responsabilidad que sea más directo: esto es sólo por diversión», dijo Glenn Cohen de la Facultad de Derecho de Harvard.

Aún así, los chatbots ya están desempeñando un papel debido a la actual escasez de profesionales de la salud mental.

El Servicio Nacional de Salud del Reino Unido ha comenzado a ofrecer un chatbot llamado Wysa para ayudar con el estrés, la ansiedad y la depresión entre adultos y adolescentes, incluidos aquellos que esperan ver a un terapeuta. Algunas aseguradoras, universidades y cadenas de hospitales estadounidenses ofrecen programas similares.

La Dra. Angela Skrzynski, médica de familia en Nueva Jersey, dice que los pacientes suelen estar muy abiertos a probar un chatbot después de que ella describe la lista de espera de meses para ver a un terapeuta.

El empleador de Skrzynski, Virtua Health, comenzó a ofrecer una aplicación protegida con contraseña, Woebot, para seleccionar pacientes adultos después de darse cuenta de que sería imposible contratar o capacitar a suficientes terapeutas para satisfacer la demanda.

«No sólo es útil para los pacientes, sino también para el médico que se esfuerza por dar algo a estas personas que están pasando apuros», dijo Skrzynski.

Los datos de Virtua muestran que los pacientes tienden a utilizar Woebot unos siete minutos al día, normalmente entre las 3 y las 5 de la mañana.

Fundada en 2017 por un psicólogo formado en Stanford, Woebot es una de las empresas más antiguas del sector.

A diferencia de Earkick y muchos otros chatbots, la aplicación actual de Woebot no utiliza los llamados modelos de lenguaje grandes, la IA generativa que permite a programas como ChatGPT producir rápidamente textos y conversaciones originales. En su lugar, Woebot utiliza miles de guiones estructurados escritos por investigadores y personal de la empresa.

La fundadora Alison Darcy dice que este enfoque basado en reglas es más seguro para el uso en el cuidado de la salud, dada la tendencia de los chatbots generativos de IA a «alucinar» o inventar información. Woebot está probando modelos de IA generativa, pero Darcy dice que ha habido problemas con la tecnología.

«No pudimos evitar que los grandes modelos de lenguaje simplemente se entrometieran y le dijeran a alguien cómo debería pensar, en lugar de facilitar el proceso de la persona», dijo Darcy.

Woebot ofrece aplicaciones para adolescentes, adultos, personas con trastornos por uso de sustancias y mujeres que experimentan depresión posparto. Ninguno está aprobado por la FDA, aunque la compañía presentó su aplicación posparto para la revisión de la agencia. La compañía dice que ha «pausado» ese esfuerzo para centrarse en otras áreas.

La investigación de Woebot se incluyó en una amplia revisión de chatbots de IA publicada el año pasado. Entre miles de artículos revisados, los autores encontraron solo 15 que cumplían con el estándar de oro para la investigación médica: ensayos rigurosamente controlados en los que los pacientes fueron asignados al azar para recibir terapia con chatbot o un tratamiento comparativo.

Los autores concluyeron que los chatbots podrían “reducir significativamente” los síntomas de depresión y angustia a corto plazo. Pero la mayoría de los estudios duraron sólo unas pocas semanas y los autores dijeron que no había forma de evaluar sus efectos a largo plazo o el impacto general en la salud mental.

Otros artículos han planteado preocupaciones sobre la capacidad de Woebot y otras aplicaciones para reconocer pensamientos suicidas y situaciones de emergencia.

Cuando un investigador le dijo a Woebot que quería escalar un acantilado y saltar de él, el chatbot respondió: «Es maravilloso que estés cuidando tu salud física y mental». La compañía dice que “no brinda asesoramiento en caso de crisis” ni servicios de “prevención del suicidio”, y así lo deja claro a los clientes.

Cuando reconoce una posible emergencia, Woebot, al igual que otras aplicaciones, proporciona información de contacto para líneas directas de crisis y otros recursos.

A Ross Koppel, de la Universidad de Pensilvania, le preocupa que estas aplicaciones, incluso cuando se usan apropiadamente, puedan estar desplazando terapias probadas para la depresión y otros trastornos graves.

«Existe un efecto de distracción de personas que podrían estar recibiendo ayuda a través de asesoramiento o medicamentos y que en lugar de eso están jugando con un chatbot», dijo Koppel, que estudia tecnología de la información sanitaria.

Koppel se encuentra entre quienes quisieran que la FDA intervenga y regule los chatbots, tal vez utilizando una escala móvil basada en los riesgos potenciales. Si bien la FDA regula la IA en dispositivos y software médicos, su sistema actual se centra principalmente en productos utilizados por médicos, no por consumidores.

Por ahora, muchos sistemas médicos se centran en ampliar los servicios de salud mental incorporándolos a los controles y cuidados generales, en lugar de ofrecer chatbots.

«Hay una gran cantidad de preguntas que debemos comprender acerca de esta tecnología para que, en última instancia, podamos hacer lo que todos queremos hacer aquí: mejorar la salud física y mental de los niños», dijo el Dr. Doug Opel, bioético del Hospital Infantil de Seattle.

© Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *