IA: Un diluvio de ‘basura’: cómo la IA está cambiando el mundo de las publicaciones científicas
Estos son algunos de los ejemplos más flagrantes de inteligencia artificial que han aparecido recientemente en revistas científicas, arrojando luz sobre la ola de textos e imágenes generados por IA que inundan el mundo. Publicación académica industria.
Varios expertos que rastrean los problemas en los estudios dijeron a la AFP que el aumento de AI Ha agravado los problemas existentes en un sector multimillonario.
Todos los expertos destacaron que los programas de IA como ChatGPT Puede ser una herramienta útil para escribir o traducir artículos, si se revisa y divulga minuciosamente.
Pero ese no fue el caso de varios casos recientes que de alguna manera pasaron desapercibidos. revisión por pares.
A principios de este año, un gráfico claramente generado por inteligencia artificial de una rata con genitales increíblemente grandes se compartió ampliamente en las redes sociales.
Descubre las historias de tu interés
Se publicó en una revista del gigante académico Frontiers, que luego se retractó del estudio. Otro estudio fue retractado el mes pasado por un gráfico de IA que mostraba piernas con extraños huesos multiarticulares que se parecían a manos.
Si bien estos ejemplos eran imágenes, se cree que es ChatGPT, un chatbot lanzado en noviembre de 2022, el que más ha cambiado la forma en que los investigadores del mundo presentan sus hallazgos.
Un estudio publicado por Elsevier se volvió viral en marzo por su introducción, que claramente era un mensaje de ChatGPT que decía: «Ciertamente, aquí hay una posible introducción para su tema».
Ejemplos tan embarazosos son raros y es poco probable que pasen el proceso de revisión por pares de las revistas más prestigiosas, dijeron varios expertos a la AFP.
Inclinación en las fábricas de papel
No siempre es tan fácil detectar el uso de la IA, pero una pista es que ChatGPT tiende a favorecer ciertas palabras.
Andrew Gray, bibliotecario del University College de Londres, revisó millones de documentos en busca del uso excesivo de palabras como meticuloso, intrincado o loable.
Determinó que al menos 60.000 artículos involucraron el uso de IA en 2023, más del uno por ciento del total anual.
«En 2024 veremos un aumento muy significativo de las cifras», dijo Gray a la AFP.
Mientras tanto, más de 13.000 artículos fueron retractados el año pasado, con diferencia la mayor cantidad en la historia, según el grupo estadounidense Retraction Watch.
La IA ha permitido que los malos actores entren Publicación científica y la academia para «industrializar el excedente» de «basura«Los documentos son una muestra de la preocupación de los medios de comunicación por la situación», declaró a la AFP el cofundador de Retraction Watch, Ivan Oransky.
Entre estos malos actores se incluyen las llamadas fábricas de papel.
Estos «estafadores» venden la autoría a los investigadores, publicando enormes cantidades de artículos de muy mala calidad, plagiados o falsos, dijo Elisabeth Bik, una investigadora holandesa que detecta la manipulación de imágenes científicas.
Se cree que el dos por ciento de todos los estudios son publicados por editoriales, pero la tasa está «explotando» a medida que la IA abre las compuertas, dijo Bik a la AFP.
Este problema se puso de relieve cuando el gigante editorial académico Wiley compró la editorial Hindawi en problemas en 2021.
Desde entonces, la firma estadounidense ha retirado más de 11.300 artículos relacionados con números especiales de Hindawi, dijo a la AFP un portavoz de Wiley.
Wiley ha presentado ahora un «servicio de detección de fábricas de papel» para detectar el uso indebido de la IA, que a su vez está impulsado por IA.
‘Círculo vicioso’
Oransky enfatizó que el problema no son sólo las fábricas de artículos, sino una cultura académica más amplia que empuja a los investigadores a «publicar o perecer».
«Los editores han creado márgenes de beneficio del 30 al 40 por ciento y miles de millones de dólares en ganancias al crear estos sistemas que exigen volumen», dijo.
La demanda insaciable de cada vez más artículos aumenta la presión sobre los académicos, que son clasificados según su producción, lo que crea un «círculo vicioso», dijo.
Muchos han recurrido a ChatGPT para ahorrar tiempo, lo que no es necesariamente algo malo.
Debido a que casi todos los artículos se publican en inglés, Bik dijo que las herramientas de traducción de IA pueden ser invaluables para los investigadores, incluida ella misma, para quienes el inglés no es su primera lengua.
Pero también existe el temor de que los errores, las invenciones y los plagios involuntarios de la IA puedan erosionar cada vez más la confianza de la sociedad en la ciencia.
Otro ejemplo de mal uso de la IA se produjo la semana pasada, cuando un investigador descubrió que lo que parecía ser una versión reescrita en ChatGPT de uno de sus propios estudios había sido publicado en una revista académica.
Samuel Payne, profesor de bioinformática en la Universidad Brigham Young de Estados Unidos, dijo a AFP que le habían pedido que revisara el estudio en marzo.
Tras darse cuenta de que era «100% plagio» de su propio estudio (pero con el texto aparentemente reformulado por un programa de inteligencia artificial), rechazó el artículo.
Payne dijo que estaba «sorprendido» al descubrir que el trabajo plagiado simplemente había sido publicado en otro lugar, en una nueva revista de Wiley llamada Proteomics.