La inteligencia artificial no siempre es útil para reducir el agotamiento de los médicos, sugieren estudios

Únase a Fox News para acceder a este contenido

Ha alcanzado su número máximo de artículos. Inicia sesión o crea una cuenta GRATIS para continuar leyendo.

Por favor, introduce una dirección de correo electrónico válida.

El uso de IA generativa puede no ser útil para reducir el agotamiento en la atención médica, sugiere una nueva investigación.

Investigaciones anteriores indicaron que el aumento del tiempo dedicado a utilizar sistemas de registros médicos electrónicos (EHR) y al manejo de responsabilidades administrativas ha sido una carga para los médicos.

Por eso, algunas personas habían anunciado la inteligencia artificial como una posible solución; sin embargo, investigaciones recientes realizadas por los sistemas de salud de EE. UU. descubrieron que modelos de lenguaje grandes (LLM) no simplificó las responsabilidades diarias de los médicos.

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (IA)?

Por ejemplo, un estudio observacional de 2023 en el Brigham and Women’s Hospital de Boston, Massachusetts, examinó el impacto del uso de IA para enviar mensajes electrónicos a los pacientes.

Los investigadores utilizaron un modelo de lenguaje grande para responder a preguntas simuladas de pacientes con cáncer – luego comparó su resultado con las respuestas de seis oncólogos radioterapeutas certificados.

Luego, los profesionales médicos editaron las respuestas generadas por la IA para convertirlas en respuestas «clínicamente aceptables» para enviarlas a los pacientes.

Nuevos estudios sugieren que la IA generativa podría no ayudar al agotamiento entre los médicos, como se pensaba anteriormente. (iStock)

El estudio, publicado en The Lancet Digital Health, encontró que los borradores del LLM planteaban «un riesgo de daño grave en 11 de 156 respuestas a la encuesta, y de muerte en una respuesta a la encuesta».

«La mayoría de las respuestas dañinas se debieron a determinar o transmitir incorrectamente la agudeza del escenario y la acción recomendada», escribieron los investigadores.

PRIMERA CIRUGÍA ABDOMINAL CON REALIDAD AUMENTADA REALIZADA EN CHILE: ‘UNA REVOLUCIÓN’

Los investigadores concluyeron que los resultados asistidos por LLM (aquellos editados por médicos) mostraban un «escenario con lo mejor de ambos mundos»: reducen la carga de trabajo de los médicos y garantizan al mismo tiempo que los pacientes obtengan información precisa.

«Estos primeros hallazgos… indican la necesidad de evaluar minuciosamente los LLM en sus contextos clínicos previstos, reflejando la tarea precisa y el nivel de supervisión humana», concluyó el estudio.

Los investigadores concluyeron que los resultados asistidos por LLM mostraron un «escenario con lo mejor de ambos mundos», reduciendo la carga de trabajo de los médicos al tiempo que garantizan la coherencia de las respuestas y mejoran la educación de los pacientes. (iStock)

Códigos de facturación médica

Otro estudio del Sistema de Salud Mount Sinai de Nueva York evaluó cuatro tipos diferentes de modelos de lenguaje grandes para patrones de rendimiento y error al realizar consultas códigos de facturación médica.

TRANSICIONES DE GOOGLE BARD A GÉMINIS: QUÉ SABER SOBRE LA ACTUALIZACIÓN DE IA

La investigación, publicada en la revista NEJM AI, encontró que todos los LLM probados obtuvieron malos resultados en la consulta de códigos médicos, «generando a menudo códigos que transmiten información imprecisa o fabricada».

El estudio concluyó: «Los LLM no son apropiados para su uso en tareas de codificación médica sin investigación adicional». El estudio fue financiado por la Fundación de Investigación AGA y los Institutos Nacionales de Salud (NIH).

Un estudio encontró que todos los LLM evaluados obtuvieron malos resultados en la consulta de códigos médicos y que el tema necesita más investigación. (iStock)

Los investigadores observaron que aunque estos modelos pueden «aproximarse al significado de muchos códigos», también «muestran una falta de precisión inaceptable y una alta propensión a falsificar códigos».

«Esto tiene implicaciones significativas para la facturación, la toma de decisiones clínicas, la mejora de la calidad, la investigación y politica de salud«, escribieron los investigadores.

Mensajes de pacientes y tiempo de los médicos.

Un tercer estudio publicado por JAMA Network, de la Facultad de Medicina de la Universidad de California en San Diego, evaluó las respuestas redactadas por IA a los mensajes de los pacientes y el tiempo que los médicos dedicaron a editarlos.

UN ESTUDIO ENCUENTRA QUE CHATGPT PROPAGA IMPRECISIONES AL RESPONDER PREGUNTAS SOBRE MEDICAMENTOS

Se suponía que los borradores de IA generativa reducirían el tiempo que el médico dedicaba a realizar estas tareas, pero los resultados demostraron lo contrario.

«Las respuestas generativas redactadas por IA se asociaron con un tiempo de lectura significativamente mayor, sin cambios en el tiempo de respuesta, una longitud de respuesta significativamente mayor y [only] algunos beneficios percibidos», encontró el estudio.

Los investigadores sugirieron que «pruebas empíricas rigurosas» son necesarios para evaluar más a fondo el rendimiento de la IA y las experiencias de los pacientes.

En un estudio de la Universidad de California en San Diego, se descubrió que la IA generativa causa «un aumento en el tiempo de lectura, sin cambios en el tiempo de respuesta». [and] longitud de respuesta significativamente mayor» en los mensajes de los pacientes. (iStock)

La opinión del médico sobre la IA

David Atashroo, MD, director médico de Qventus, una solución de gestión quirúrgica impulsada por IA en Vista a la montaña, California, reaccionó a los hallazgos de la investigación en una entrevista con Fox News Digital. (Él no participó en la investigación).

«Vemos un inmenso potencial para que la IA asuma tareas de menor riesgo, pero altamente automatizables, que tradicionalmente recaen en las ‘funciones de pegamento’ esenciales pero a menudo pasadas por alto en la atención médica, como programadores, asistentes médicos, administradores de casos y orientadores de atención». él dijo.

«Es crucial establecer expectativas realistas sobre [AI’s] actuación.’

«Estos profesionales son cruciales para mantener juntos procesos que están directamente relacionados con los resultados clínicos, pero dedican una parte sustancial de su tiempo a tareas administrativas como analizar faxes, resumir notas y obtener la documentación necesaria».

HAGA CLIC AQUÍ PARA SUSCRIBIRSE A NUESTRO BOLETÍN DE SALUD

Al automatizar estas tareas, Atashroo sugirió que IA generativa podría ayudar a mejorar la eficiencia y eficacia de la atención clínica.

«Al considerar el despliegue de IA generativa, es crucial establecer expectativas realistas sobre su desempeño», dijo.

«El estándar no siempre puede ser la perfección, ya que ni siquiera los humanos que actualmente realizan estas tareas son infalibles».

«El estándar no siempre puede ser la perfección, ya que ni siquiera los humanos que actualmente realizan estas tareas son infalibles», afirmó un experto en IA. (iStock)

En algunos escenarios, sugirió, la IA podría ayudar a servir como una «red de seguridad» para detectar cualquier descuido de los miembros del equipo.

A veces es posible que las tareas queden sin abordarse «simplemente porque no hay suficiente tiempo para abordarlas», señaló Atashroo.

«La IA generativa puede ayudar a gestionar los casos de forma más consistente de lo que permite nuestra capacidad actual».

«Al considerar el despliegue de IA generativa, es crucial establecer expectativas realistas sobre su desempeño».

La seguridad y la eficacia son «primordiales» en las aplicaciones de IA, señaló también el médico.

«Esto significa no sólo desarrollar modelos con rigurosos controles de calidad, sino también incorporar evaluaciones periódicas por parte de expertos humanos para validar su desempeño», dijo.

HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

«Esta verificación de doble capa garantiza que nuestras soluciones de IA sean responsables y confiables antes de escalarse».

Atashroo también señaló que «la transparencia en el desarrollo y la implementación de tecnologías de IA es esencial para generar confianza entre los socios hospitalarios y los pacientes».

Para más artículos de salud, visite www.foxnews.com/health.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *