Cada vez más médicos utilizan ChatGPT para ayudar con cargas de trabajo intensas, pero ¿es la IA un asistente confiable?

Cada vez más médicos utilizan ChatGPT para ayudar con cargas de trabajo intensas, pero ¿es la IA un asistente confiable?

Únase a Fox News para acceder a este contenido

Además, acceso especial a artículos seleccionados y otro contenido premium con su cuenta, sin cargo.

Por favor, introduce una dirección de correo electrónico válida.

El Dr. AI lo verá ahora.

Puede que no esté tan lejos de la verdad, ya que cada vez más médicos recurren a inteligencia artificial para aliviar sus ocupadas cargas de trabajo.

Los estudios han demostrado que hasta el 10% de los médicos utilizan ChatGPT, un modelo de lenguaje grande (LLM) creado por OpenAI, pero ¿qué tan precisas son sus respuestas?

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (IA)?

Un equipo de investigadores del Centro Médico de la Universidad de Kansas decidió averiguarlo.

«Cada año, se publican alrededor de un millón de nuevos artículos médicos en revistas científicas, pero los médicos ocupados no tienen mucho tiempo para leerlos», dijo a Fox News Digital Dan Parente, autor principal del estudio y profesor asistente en la universidad. .

Un equipo de investigadores de la Universidad de Kansas decidió averiguar si la IA realmente ayuda a los médicos. (iStock)

«Nos preguntamos si los grandes modelos de lenguaje – en este caso, ChatGPT — podría ayudar a los médicos a revisar la literatura médica más rápidamente y encontrar artículos que podrían ser más relevantes para ellos».

¿QUÉ ES CHATGPT?

Para un nuevo estudio publicado en Annals of Family Medicine, los investigadores utilizaron ChatGPT 3.5 para resumir 140 estudios revisados ​​por pares de 14 revistas médicas.

Luego, siete médicos revisaron de forma independiente las respuestas del chatbot y las calificaron según su calidad, precisión y sesgo.

Se encontró que las respuestas de la IA eran un 70% más cortas que las respuestas de los médicos reales, pero las respuestas obtuvieron altas calificaciones en precisión (92,5%) y calidad (90%) y no se encontró que tuvieran sesgos.

En un nuevo estudio, se descubrió que las respuestas de IA, como las de ChatGPT, eran un 70% más cortas que las respuestas de los médicos reales. (Frank Rumpenhorst/Picture Alliance vía Getty Images)

Las imprecisiones graves y las alucinaciones eran «poco comunes»: se encontraron sólo en cuatro de 140 resúmenes.

«Un problema con los modelos de lenguaje grandes es también que a veces pueden ‘alucinar’, lo que significa que inventan información que simplemente no es cierta», señaló Parente.

UN ESTUDIO ENCUENTRA QUE CHATGPT PROPAGA IMPRECISIONES AL RESPONDER PREGUNTAS SOBRE MEDICAMENTOS

«Estábamos preocupados de que esto fuera un problema grave, pero descubrimos que las imprecisiones graves y las alucinaciones eran muy raras».

De los 140 resúmenes, sólo dos eran alucinaciones, dijo.

Sin embargo, las imprecisiones menores fueron un poco más comunes: aparecieron en 20 de 140 resúmenes.

Un nuevo estudio encontró que ChatGPT también ayudó a los médicos a determinar si una revista completa era relevante para su especialidad médica. (iStock)

«También descubrimos que ChatGPT generalmente podía ayudar a los médicos a determinar si una revista completa era relevante para un especialidad médica (por ejemplo, a un cardiólogo o a un médico de atención primaria), pero le resultó mucho más difícil saber cuándo un artículo individual era relevante para una especialidad médica», añadió Parente.

SE ENCUENTRA QUE CHATGPT BRINDA MEJOR ASESORAMIENTO MÉDICO QUE LOS MÉDICOS REALES EN UN ESTUDIO CIEGO: ‘ESTO SERÁ UN CAMBIO DE JUEGO’

Con base en estos hallazgos, Parente señaló que ChatGPT podría ayudar a médicos y científicos ocupados a decidir qué nuevos artículos de revistas médicas valen más la pena leer.

«La gente debería alentar a sus médicos a mantenerse al día con los nuevos avances en medicina para que puedan brindar atención basada en evidencia», dijo.

‘Úselos con cuidado’

Dr. Harvey Castro, un Con sede en Dallas Médico de urgencias certificado y orador nacional sobre inteligencia artificial en la atención sanitaria, no participó en el estudio de la Universidad de Kansas, pero ofreció sus ideas sobre el uso de ChatGPT por parte de los médicos.

“IA integración en la atención sanitariaparticularmente para tareas como interpretar y resumir estudios médicos complejos, mejora significativamente la toma de decisiones clínicas», dijo a Fox News Digital.

El Dr. Harvey Castro de Dallas señaló que ChatGPT y otros modelos de IA tienen algunas limitaciones. (Dr. Harvey Castro)

«Este soporte tecnológico es fundamental en entornos como la sala de emergencias, donde el tiempo es esencial y la carga de trabajo puede ser abrumadora».

Castro señaló, sin embargo, que ChatGPT y otros modelos de IA tienen algunas limitaciones.

«Es importante comprobar que la IA nos da respuestas razonables y precisas».

«A pesar del potencial de la IA, la presencia de imprecisiones en los resúmenes generados por la IA (aunque mínimas) plantea preocupaciones sobre la confiabilidad del uso de la IA como única fuente para la toma de decisiones clínicas», dijo Castro.

«El artículo destaca algunas imprecisiones graves en los resúmenes generados por IA, lo que subraya la necesidad de una integración cautelosa de las herramientas de IA en entornos clínicos».

Sigue siendo importante que los médicos revisen y supervisen todo el contenido generado por IA, señaló un experto en IA. (Cyberguy.com)

Dadas estas posibles imprecisiones, particularmente en escenarios de alto riesgo, Castro enfatizó la importancia de tener profesionales de la salud supervisar y validar el contenido generado por IA.

Los investigadores estuvieron de acuerdo y señalaron la importancia de sopesar los beneficios útiles de los LLM como ChatGPT con la necesidad de tener precaución.

HAGA CLIC AQUÍ PARA SUSCRIBIRSE A NUESTRO BOLETÍN DE SALUD

«Como cualquier herramienta eléctrica, debemos usarla con cuidado», dijo Parente a Fox News Digital.

«Cuando le pedimos a un modelo de lenguaje grande que realice una nueva tarea (en este caso, resumir resúmenes médicos), es importante verificar que la IA nos esté dando respuestas razonables y precisas».

HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

A medida que la IA se utiliza más ampliamente en la atención sanitaria, dijo Parente, «debemos insistir en que los científicos, médicos, ingenieros y otros profesionales hayan realizado un trabajo cuidadoso para garantizar que estas herramientas sean seguras, precisas y beneficiosas».

Para más artículos de salud, visite foxnews.com/health

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *