Fueron arrestados por publicar en las redes sociales durante los disturbios. ¿Cambiará eso algo?

Fueron arrestados por publicar en las redes sociales durante los disturbios. ¿Cambiará eso algo?

bbc

Para Tyler Kay y Jordan Parlour, la justicia por lo que publicaron en las redes sociales ha llegado rápida y duramente.

Kay, de 26 años, y Parlour, de 28, han sido sentenciados a 38 meses y 20 meses de prisión respectivamente por incitar al odio racial en línea durante los disturbios del verano.

Los cargos posteriores al trastorno parecieron un momento significativo, en el que las personas tuvieron que enfrentar consecuencias en la vida real por lo que dijeron e hicieron en línea.

Hubo un reconocimiento generalizado de que las afirmaciones falsas y el odio en línea contribuyeron a la violencia y el racismo en las calles británicas en agosto. A raíz de esto, el Primer Ministro Keir Starmer dijo que las redes sociales “tienen la responsabilidad” de abordar la desinformación.

Más de 30 personas fueron arrestadas por publicaciones en las redes sociales. Por lo que he encontrado, al menos 17 de ellos han sido acusados.

La policía habrá considerado que algunos de los investigados no cumplían el umbral de criminalidad. Y en muchos casos, el sistema legal podría ser la forma equivocada de abordar las publicaciones en las redes sociales.

Pero algunas publicaciones que no cruzaron la línea de criminalidad aún pueden haber tenido consecuencias en la vida real. Así que para aquellos que los hicieron, no habrá día de ajuste de cuentas.

Y tampoco, al parecer, para los gigantes de las redes sociales cuyos algoritmos, una y otra vez, son acusados ​​de priorizar el compromiso sobre la seguridad, impulsando el contenido independientemente de la reacción que pueda provocar.

Imágenes falsas

El propietario de X, Elon Musk, criticó a las autoridades del Reino Unido por su respuesta a los disturbios

En el momento de los disturbios, me preguntaba si este podría ser el momento que finalmente cambiaría el panorama en línea.

Ahora, sin embargo, no estoy tan seguro.

Para comprender el papel de los gigantes de las redes sociales en todo esto, resulta útil empezar analizando los casos de un padre en Pakistán y una empresaria de Chester.

En X (anteriormente conocido como Twitter), un sitio web de pseudonoticias llamado Channel3Now publicó un nombre falso del joven de 17 años acusado de los asesinatos de tres niñas en Southport. Este nombre falso fue luego citado ampliamente por otros.

Otra persona que compartió el nombre falso en X fue Bernadette Spofforth, una mujer de 55 años de Chester con más de 50.000 seguidores. Anteriormente había compartido publicaciones que planteaban preguntas sobre el bloqueo y las medidas de cambio climático neto cero.

Las publicaciones de Channel3Now y Spofforth también sugirieron erróneamente que el joven de 17 años era un solicitante de asilo que había llegado al Reino Unido en barco.

Todo esto, combinado con otras afirmaciones falsas de otras fuentes de que el atacante era musulmán, fue ampliamente culpado de contribuir a los disturbios, algunos de los cuales tenían como objetivo mezquitas y solicitantes de asilo.

Descubrí que Channel3Now estaba conectado con un hombre llamado Farhan Asif en Pakistán, así como con un jugador de hockey en Nueva Escocia y alguien que decía llamarse Kevin. El sitio parecía ser una operación comercial que buscaba aumentar las visitas y vender anuncios.

En ese momento, una persona que decía ser de la gerencia de Channel3Now me dijo que la publicación del nombre falso “fue un error, no intencional” y negó ser el origen de ese nombre.

Y la señora Spofforth me dijo que eliminó su publicación falsa sobre el sospechoso tan pronto como se dio cuenta de que era falsa. También negó rotundamente haber inventado el nombre.

Entonces, ¿qué pasó después?

Farhan Asif y Bernadette Spofforth fueron arrestados por estos mensajes poco después de que hablé con ellos.

Sin embargo, se retiraron los cargos. Las autoridades de Pakistán dijeron que no pudieron encontrar pruebas de que Asif fuera el autor del nombre falso. La policía de Cheshire también decidió no presentar cargos contra la Sra. Spofforth por “pruebas insuficientes”.

El señor Farhan parece haberse hundido. Se han eliminado el sitio Channel3Now y varias páginas de redes sociales conectadas.

Bernadette Spofforth, sin embargo, ahora ha vuelto a publicar regularmente en X. Sólo esta semana ha tenido más de un millón de visitas en sus publicaciones.

Dice que se ha convertido en una defensora de la libertad de expresión desde su arresto. Ella dice: «Como se ha demostrado ahora, la idea de que un solo tweet podría ser el catalizador de los disturbios que siguieron a las atrocidades en Southport simplemente no es cierta».

Centrarse en estos casos individuales puede ofrecer información valiosa sobre quién comparte este tipo de contenido y por qué.

Pero para llegar al meollo del problema, es necesario dar un paso más atrás.

Si bien las personas son responsables de sus propias publicaciones, he descubierto una y otra vez que esto se trata fundamentalmente de cómo funcionan los diferentes sitios de redes sociales.

Las decisiones tomadas durante el mandato de Elon Musk, el propietario de X, también son parte de la historia. Estas decisiones incluyen la posibilidad de comprar ticks azules, que otorgan mayor protagonismo a tus publicaciones, y un nuevo enfoque de moderación que favorece la libertad de expresión por encima de todo.

El jefe de la policía antiterrorista del Reino Unido, el subcomisionado Matt Jukes, me dijo en el noticiero de la BBC que «X fue un enorme impulsor» de las publicaciones que contribuyeron al desorden del verano.

Imágenes falsas

Matt Jukes ha acusado a X de desempeñar un papel importante en alimentar los disturbios.

Un equipo que él supervisa, llamado Unidad de Referencia de Internet, notó “el efecto desproporcionado de ciertas plataformas”, dijo.

Dice que hubo alrededor de 1.200 referencias (publicaciones señaladas a la policía por miembros del público) sólo en relación con los disturbios. Para él esto era “sólo la punta del iceberg”. La unidad obtuvo 13 veces más referencias en relación con X que TikTok.

Actuar sobre contenidos que son ilegales y que violan las leyes antiterroristas es, en cierto sentido, la parte fácil. Más difíciles de abordar son aquellas publicaciones que caen en lo que Jukes llama la categoría “legal pero horrible”.

La unidad señala dicho material a los sitios en los que fue publicado cuando cree que infringe sus términos y condiciones.

Pero Jukes encontró difícil lidiar con Telegram, anfitrión de varios grupos grandes en los que se organizaba el desorden y se compartía el odio y la desinformación.

En opinión de Jukes, Telegram tiene una “determinación férrea de no comprometerse” con las autoridades.

Elon Musk ha acusado a las fuerzas del orden en el Reino Unido de intentar controlar las opiniones sobre temas como la inmigración y ha habido acusaciones de que las medidas adoptadas contra las personas que publican publicaciones han sido desproporcionadas.

Jukes responde: “Le diría esto a Elon Musk si estuviera aquí: no estaríamos arrestando a personas por tener opiniones sobre inmigración. [Police] Fueron y arrestaron a personas por amenazar o incitar a otros a quemar mezquitas u hoteles”.

Pero si bien la responsabilidad ha sido sentida «en el extremo más agudo» por aquellos que participaron en el desorden y publicaron contenido de odio en línea, Jukes dijo que «las personas que ganan miles de millones brindando esas oportunidades» para publicar contenido dañino en las redes sociales «no lo han hecho». Realmente pagué cualquier precio”.

Quiere que se refuerce la Ley de Seguridad en Línea que entrará en vigor a principios de 2025 para que pueda abordar mejor el contenido que es «legal pero horrible».

Telegram dijo a la BBC que “no hay lugar para llamados a la violencia” en su plataforma y dijo que “los moderadores eliminaron los canales del Reino Unido que pedían desorden cuando fueron descubiertos” durante los disturbios.

«Mientras que los moderadores de Telegram eliminan millones de contenidos dañinos cada día, un número de usuarios de casi mil millones provoca ciertos problemas crecientes en la moderación de contenidos, que estamos abordando actualmente», dijo un portavoz.

También me comuniqué con X, que no respondió a los puntos planteados por la BBC.

X continúa compartiendo en sus pautas disponibles públicamente que su prioridad es proteger y defender la voz del usuario.

Casi todas las investigaciones que hago ahora regresan al diseño de los sitios de redes sociales y a cómo los algoritmos impulsan contenido que desencadena una reacción, generalmente independientemente del impacto que pueda tener.

Durante el desorden, los algoritmos amplificaron la desinformación y el odio hacia millones de personas, atrayendo nuevos reclutas e incentivando a las personas a compartir contenido controvertido para obtener vistas y me gusta.

¿Por qué eso no cambia? Bueno, por lo que he descubierto, las empresas tendrían que verse obligadas a modificar sus modelos de negocio. Y para los políticos y reguladores, eso podría llegar a ser un desafío muy grande.

BBC en profundidad es el nuevo hogar en el sitio web y la aplicación para el mejor análisis y experiencia de nuestros mejores periodistas. Bajo una nueva marca distintiva, le brindaremos nuevas perspectivas que desafían las suposiciones e informes detallados sobre los problemas más importantes para ayudarlo a entender un mundo complejo. Y también mostraremos contenido que invita a la reflexión de BBC Sounds y iPlayer. Estamos empezando poco a poco pero pensando en grande, y queremos saber qué piensas. Puedes enviarnos tus comentarios haciendo clic en el botón a continuación.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *