Detrás del drama del fraude que sacude a la academia

Detrás del drama del fraude que sacude a la academia

Si nos basamos en el esfuerzo de financiación colectiva, existe una gran simpatía por los detectives de datos Leif Nelson, Joe Simmons y Uri Simonsohn. Los tres hombres (profesores de marketing, estadística aplicada y ciencias del comportamiento, respectivamente) se han ganado una reputación como defensores de métodos sólidos de investigación científica. Ahora se enfrentan a una demanda en Estados Unidos reclamando 25 millones de dólares por difamación, y la campaña para financiar su defensa recaudó más de 180.000 dólares en las primeras 24 horas. La lista de donantes parece un quién es quién de las ciencias del comportamiento, incluida una donación de 4.900 dólares del premio Nobel Richard Thaler.

En junio, Nelson, Simmons y Simonsohn publicaron cuatro artículos en su blog, Data Colada, en sus propias palabras “detallando evidencia de fraude en cuatro artículos académicos en coautoría con la profesora Francesca Gino de la Escuela de Negocios de Harvard”. El blog profundiza en el historial de versiones de las hojas de cálculo de Excel de los investigadores, buscando lo que sus autores dicen que es evidencia de datos alterados manualmente en puntos inesperados. Gino, que se encuentra en licencia administrativa, ha demandado a Harvard y al trío, alegando que sus acciones han dañado su reputación.

El profesor Gino, científico del comportamiento, tiene derecho a defender su buen nombre, aunque la avalancha de donaciones al fondo de defensa Data Colada refleja una sensación generalizada de que el blog está prestando un importante servicio. “El campo se beneficia de Data Colada”, escribió un donante. Otro declaró: “Corregir la literatura científica merece gratitud, no castigo”.

Hay una lección más amplia que extraer sobre el proceso científico. Las instituciones científicas favorecen la investigación que ofrece cantidad sobre calidad, novedad sobre solidez y la producción de afirmaciones originales en lugar del escrutinio de las conocidas. El resultado, dicen los investigadores Paul Smaldino y Richard McElreath, ha sido “la selección natural de la mala ciencia”, un lugar donde el buen trabajo sufre y el mal trabajo prospera.

Por ejemplo, suele ser más fácil “descubrir” algo publicable si sus métodos de investigación no son estándar. Eso podría significar un fraude escandaloso; más a menudo eso podría tomar la forma de una infracción aparentemente menor, como probar muchas hipótesis diferentes y solo informar los resultados más interesantes. Esto hace que los métodos estadísticos que utilizamos para detectar casualidades sean absurdos.

Con razón estamos más indignados por los estafadores que por los investigadores que toman atajos, pero si el objetivo es hacer avanzar el conocimiento, el motivo no importa. «Cualquier investigación suficientemente mala es indistinguible del fraude», afirma el estadístico Andrew Gelman.

En un mundo ideal, los conjuntos de datos estarían adecuadamente documentados y compartidos para que cualquiera pudiera analizarlos. Las consultas estadísticas se registrarían para que los científicos pudieran ver exactamente qué otros pasos analíticos habían tomado otros científicos. Los experimentos se registrarían previamente para que no desaparecieran en los archivadores cuando los resultados fueran decepcionantes. Todo esto haría que la ciencia fuera más rigurosa y colaborativa, con menos énfasis en lo llamativo y más en construir algo que perdure.

Dame Ottoline Leyser, directora de Investigación e Innovación del Reino Unido, ha señalado que si todos abren nuevos caminos y nadie construye, lo único que quedarán serán muchos agujeros en el suelo. El problema, dice Stuart Ritchie, autor de Ciencia ficciones que “todas estas cosas son sólo una molestia”. No sólo es tedioso pasar por muchos obstáculos metodológicos en lugar de realizar nuevos experimentos divertidos, sino que también es malo para la carrera. Si los altos estándares son voluntarios, los investigadores rápidos y relajados podrán producir hallazgos atractivos, mientras que los científicos rigurosos seguirán torpedeando sus propios resultados.

Mientras tanto, incluso para aquellos que no han sido demandados por 25 millones de dólares, las recompensas por examinar cuidadosamente las investigaciones existentes son escasas. Las revistas están más interesadas en publicar nuevos hallazgos que en publicar “réplicas”, estudios que comprueban si los resultados experimentales más antiguos realmente se mantienen. En cuanto al trabajo realizado por los blogueros de Data Colada, parece no haber lugar para ello en las estructuras formales del establishment científico.

Otra detective de datos, Elisabeth Bik, que detecta imágenes manipuladas en artículos científicos, ganó el premio John Maddox de la organización benéfica Sense About Science por su trabajo. Pero ella no tiene cátedra. Está financiada por trabajos de consultoría y seguidores en Patreon. Si financiamos ese trabajo de detective con una ronda ocasional, no es de extrañar que haya tantas malas investigaciones y tan poco escrutinio.

Dice el refrán que la ciencia se autocorrige. Ese cliché oscurece dos hechos incómodos. La primera es que la verdad surge no a través de algún proceso automático, sino porque alguien hizo el trabajo duro y asumió el riesgo de su reputación para encontrar los errores. No deberíamos asumir que eso simplemente sucederá. Deberíamos encontrar espacio y financiación para ello en nuestras instituciones científicas.

El segundo hecho es que no hay necesidad de corrección si la ciencia tiene razón la primera vez. Eso significa fortalecer los estándares básicos de la ciencia, por ejemplo, apoyando los esfuerzos de replicación, exigiendo el registro previo de experimentos científicos y creando herramientas para apoyar el intercambio y el seguimiento de datos y métodos.

Hay atisbos de esperanza de que los científicos, las revistas científicas y los organismos que otorgan subvenciones se estén interesando más en ese trabajo. La recompensa potencial aquí es enorme. Con las herramientas digitales, las reglas de publicación y las normas científicas adecuadas, podemos hacer que la investigación rigurosa sea más fácil de realizar, más fácil de compartir y más fácil de verificar, al tiempo que complicamos la vida tanto para la gran cantidad de investigadores demasiado informales como para la pequeña cantidad de tramposos.

Es mejor prevenir que curar. Nunca es demasiado tarde para detectar errores y corregir el registro científico. Pero la ciencia ganará más (y con muchos menos dolores de cabeza) si las revistas, las universidades y los organismos de financiación apoyan prácticas de investigación mejores y más sólidas desde el principio.

Escrito y publicado por primera vez en Tiempos financieros el 1 de septiembre de 2023.

Mi primer libro infantil, El detective de la verdad ya está disponible (aún no en EE. UU. ni Canadá, lo siento).

He montado un escaparate en Bookshop en el Estados Unidos y el Reino Unido. Los enlaces a Bookshop y Amazon pueden generar tarifas de referencia.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *