La IA puede rescatar a la gente de las madrigueras de las teorías conspirativas
Apenas La mitad de los estadounidenses Suscríbete a Algún tipo de teoría de la conspiracióny sus semejantes No he tenido mucho éxito persuadiéndolos fuera de sus madrigueras de conejo.
Quizás podrían aprender una cosa o dos de un Chatbot impulsado por IA.
En una serie de experimentos, el chatbot artificial logró que más de una cuarta parte de las personas se sintieran inseguras sobre su creencia conspirativa más preciada. La conversación promedio duró menos de ocho minutos y medio.
El resultados Así lo informó el jueves la revista Science.
El fracaso de los hechos para convencer a la gente de que Realmente aterrizó en la lunaque Al Qaeda realmente era Responsable de los ataques del 11 de septiembreY que el presidente Biden realmente lo hizo. ganar las elecciones de 2020Entre otras cosas, ha alimentado la ansiedad sobre una era de la posverdad que favorece las creencias personales sobre la evidencia objetiva.
“Las personas que creen en teorías de conspiración rara vez, o nunca, cambian de opinión”, dijo el líder del estudio. Thomas CostelloPsicóloga de la American University que investiga las creencias políticas y sociales. “En cierto sentido, es mejor creer que existe una sociedad secreta que lo controla todo que creer que la entropía y el caos gobiernan”.
Pero el estudio sugiere que el problema no está en el poder persuasivo de los hechos: es nuestra incapacidad de reunir la combinación correcta de hechos para contrarrestar las razones específicas de escepticismo de alguien.
Costello y sus colegas atribuyeron el éxito del chatbot a la argumentos detallados y personalizados Se preparó para cada uno de los 2.190 participantes del estudio con los que se enfrentó.
Por ejemplo, a una persona que dudaba de que las torres gemelas pudieran haber sido derribadas por aviones porque el combustible para aviones no se quema lo suficientemente caliente como para derretir el acero, se le informó que el combustible alcanza temperaturas de hasta 1.832 grados, suficiente para que el acero pierda su integridad estructural y provoque un colapso.
A una persona que no creía que Lee Harvey Oswald tenía las habilidades necesarias para asesinar al presidente John F. Kennedy se le dijo que Oswald había sido un tirador de primera en los Marines y que no habría tenido muchos problemas para disparar un tiro preciso desde unos 90 metros de distancia.
Y a una persona que creía que la princesa Diana fue asesinada para que el príncipe Carlos pudiera volver a casarse se le recordó la brecha de ocho años entre el fatal accidente automovilístico de Diana y la segunda boda del futuro rey, lo que socava el argumento de que los dos eventos estaban relacionados.
Los hallazgos sugieren que “cualquier tipo de creencia que la gente tenga y que no esté basada en buena evidencia podría modificarse”, dijo el coautor del estudio. Gordon Pennycookun psicólogo cognitivo de la Universidad de Cornell.
“Es realmente reconfortante saber que la evidencia importa”, dijo.
Los investigadores comenzaron pidiendo a los estadounidenses que calificaran el grado en el que se adherían a 15 teorías conspirativas comunes, incluyendo que el virus responsable del COVID-19 fue creado por el gobierno chino y que el ejército estadounidense ha estado ocultando evidencia del aterrizaje de un ovni en Roswell, Nuevo México. Después de realizar una tarea no relacionada, se pidió a los participantes que describieran una teoría conspirativa que encontraran particularmente convincente y explicaran por qué la creían.
La solicitud motivó al 72% de ellos a compartir sus sentimientos sobre una teoría de la conspiración. Entre este grupo, el 60% fue asignado aleatoriamente para discutirla con el modelo de lenguaje grande. Turbo GPT-4.
Las conversaciones comenzaron con el chatbot resumiendo la descripción que el humano había hecho de la teoría de la conspiración. Luego, el humano calificó el grado en que estaba de acuerdo con el resumen en una escala de 0 a 100.
A partir de ahí, el chatbot se puso a demostrar que no había nada sospechoso. Para asegurarse de que no estuviera exagerando la verdad para ser más persuasivo, los investigadores contrataron a un verificador de datos profesional para que evaluara 128 afirmaciones del bot sobre una variedad de conspiraciones. Una fue juzgada como engañosa y el resto eran ciertas.
El robot también mostró su encanto. En un caso, elogió a un participante por “examinar críticamente los acontecimientos históricos” y le recordó que “es vital distinguir entre lo que teóricamente podría ser posible y lo que está respaldado por la evidencia”.
Cada conversación incluyó tres rondas de evidencia del chatbot, seguidas de una respuesta del humano. (Puedes probarlo tú mismo) aquí.) Después, los participantes volvieron a analizar sus declaraciones conspirativas resumidas. Sus índices de acuerdo cayeron un 21% en promedio.
En el 27% de los casos, la caída fue lo suficientemente grande como para que los investigadores pudieran decir que la persona “perdió la seguridad de su creencia en la conspiración”.
Mientras tanto, el 40% de los participantes que sirvieron como controles también recibieron resúmenes de su teoría de la conspiración preferida y los calificaron en una escala de 0 a 100. Luego hablaron con el chatbot sobre temas neutrales, como el sistema médico de EE. UU. o los méritos relativos de los gatos y los perros. Cuando se les pidió a estas personas que reconsideraran sus resúmenes de teorías de la conspiración, sus calificaciones cayeron solo un 1%, en promedio.
Los investigadores volvieron a consultar a los participantes 10 días y 2 meses después para ver si los efectos habían desaparecido. No fue así.
El equipo repitió el experimento con otro grupo y preguntó a los participantes sobre sus creencias en teorías conspirativas de una manera más indirecta. Esta vez, al hablar de la teoría elegida con el bot, su calificación disminuyó un 19,4%, en comparación con una disminución del 2,9% en el caso de quienes hablaron sobre otra cosa.
Las conversaciones “realmente cambiaron fundamentalmente la mentalidad de las personas”, dijo el coautor. David Randallun científico social computacional del MIT que estudia cómo las personas toman decisiones.
«El efecto no varió significativamente según la conspiración que se nombró y se discutió», dijo Rand. «Funcionó para conspiraciones clásicas como el asesinato de JFK y las patrañas del alunizaje y Illuminaticosas así. Y también funcionó para conspiraciones modernas, más politizadas, como las relacionadas con el fraude electoral de 2020 o el COVID-19”.
Además, cuando el chatbot de IA les preguntó sobre una teoría conspirativa, las personas se volvieron más escépticas con respecto a las demás. Después de las conversaciones, su afinidad con las 15 teorías más comunes disminuyó significativamente más que en el grupo de control.
“Eso estaba haciendo que la gente fuera menos conspirativa en general”, dijo Rand. “También aumentó sus intenciones de hacer cosas como ignorar o bloquear cuentas de redes sociales que compartían teorías conspirativas o, ya sabe, discutir con personas que apoyaban esas teorías conspirativas”.
En otra señal alentadora, el robot no pudo disuadir a la gente de creer en conspiraciones que en realidad eran ciertas, como la operación encubierta de la CIA. MK-Ultra Proyecto que utilizó sujetos involuntarios para probar si las drogas, la tortura o el lavado de cerebro podían mejorar los interrogatorios. En algunos casos, las conversaciones a través de chatbots hicieron que la gente creyera aún más en estas conspiraciones.
“No se trataba de un control mental, sino de obligar a la gente a hacer lo que quisiera”, dijo Rand. “Básicamente, se trataba de seguir los hechos”.
Los investigadores que no participaron en el estudio lo calificaron de avance bienvenido.
En Un ensayo que acompañó el estudio, psicólogo Bence Bago de la Universidad de Tilberg en los Países Bajos y psicólogo cognitivo Jean-François Bonnefon Un investigador de la Escuela de Economía de Toulouse en Francia dijo que los experimentos muestran que “una intervención escalable para recalibrar creencias erróneas puede estar a nuestro alcance”.
Pero también plantearon varias preocupaciones, entre ellas si funcionaría con una teoría de conspiración que es tan nueva que no hay muchos datos que un robot de inteligencia artificial pueda utilizar.
Los investigadores hicieron una primera prueba de esto la semana después del 13 de julio. intento de asesinato sobre el expresidente Trump. Después de ayudar al programa de inteligencia artificial a encontrar información creíble sobre el ataque, descubrieron que hablar con el chatbot reducía la creencia de las personas en teorías conspirativas relacionadas con el asesinato en 6 o 7 puntos porcentuales, lo que Costello llamó «un efecto notable».
Bago y Bonnefon también cuestionaron si los teóricos de la conspiración estarían dispuestos a trabajar con un bot. Rand dijo que no creía que fuera un problema insalvable.
“Una ventaja de esto es que los teóricos de la conspiración no suelen avergonzarse de sus creencias”, dijo. “Podrías imaginarte simplemente yendo a foros de conspiración e invitando a la gente a hacer su propia investigación hablando con el chatbot”.
Rand también sugirió comprar anuncios en motores de búsqueda para que cuando alguien escriba una consulta sobre, digamos, «estado profundo”, verán una invitación para discutirlo con un chatbot de IA.
Robbie SuttonUn psicólogo social de la Universidad de Kent, en Inglaterra, que estudia por qué la gente adopta creencias conspirativas, calificó el nuevo trabajo como “un importante paso adelante”, pero señaló que la mayoría de las personas que participaron en el estudio persistieron en sus creencias a pesar de recibir “refutaciones fácticas de alta calidad” de un “chatbot altamente competente y respetuoso”.
“Visto así, hay más resistencia que apertura mental”, afirmó.
Sutton agregó que los hallazgos no arrojan mucha luz sobre lo que atrae a la gente a las teorías de conspiración en primer lugar.
“Intervenciones como ésta son básicamente una ambulancia al pie del acantilado”, afirmó. “Tenemos que centrar más nuestros esfuerzos en lo que ocurre en la cima del acantilado”.