Hay una forma clara de regular Facebook, TikTok y otras redes sociales

Quizás la tecnología poderosa nunca haya presentado un conjunto tan grande de desafíos regulatorios para el gobierno de Estados Unidos. Antes de las primarias estatales de enero, los demócratas de New Hampshire recibieron llamadas automáticas reproduciendo generado por IA grabaciones de audio falsas del presidente Biden animándolos a no votar. Imaginemos deepfakes políticos que, por ejemplo, inciten a los estadounidenses a la violencia. Este escenario no es demasiado difícil de evocar dado nueva investigación de la Universidad de Nueva York que describe la distribución de contenido falso, de odio o violento en las redes sociales como el mayor riesgo digital para las elecciones de 2024.

Nosotros dos hemos ayudado a desarrollar y hacer cumplir algunas de las decisiones sobre redes sociales más trascendentales en la historia moderna, incluyendo prohibir el porno de venganza en Reddit y prohibir a Trump en Twitter. Así que hemos visto de primera mano lo bien que ha funcionado depender completamente de la autorregulación para que las empresas de redes sociales moderen su contenido.

El veredicto: nada bien.

Abunda el contenido tóxico en nuestras redes sociales, en gran parte no reguladas, que ya ayudaron a fomentar el intento de insurrección en el Capitolio de los Estados Unidos el 6 de enero de 2021, y el intentó golpe en brasil el 8 de enero de 2023. Los peligros solo se agravan con despidos golpeando la industria, la Corte Suprema y Congreso no abordar estos problemas de frente, y directores ejecutivos inescrutables lanzamiento cambios dramáticos en sus empresas. Amplio acceso a tecnología nueva y cada vez más sofisticada para crear deepfakes realistas, como la pornografía falsa generada por IA de Taylor Swiftfacilitará la difusión de engaños.

El status quo de las empresas de redes sociales en Estados Unidos es similar a tener una industria de vuelos no regulados. Imagínese si no lleváramos un seguimiento de los tiempos de vuelo o los retrasos o si no registráramos los accidentes e investigáramos por qué ocurrieron. Imagínese si nunca supiéramos de pilotos o pasajeros deshonestos y esas personas no estuvieran en la lista negra para vuelos futuros. Las aerolíneas tendrían menos idea de lo que hay que hacer y dónde están los problemas. También enfrentarían menos responsabilidad. La falta de estándares y métricas de la industria de las redes sociales para rastrear la seguridad y los daños nos ha llevado a una carrera hacia el fondo.

Al igual que la Junta Nacional de Seguridad en el Transporte y la Administración Federal de Aviación, debería haber una agencia para regular las empresas de tecnología estadounidenses. El Congreso puede crear una autoridad independiente responsable de establecer y hacer cumplir reglas básicas de seguridad y privacidad para las empresas de redes sociales. Para garantizar el cumplimiento, la agencia debe tener acceso a información y documentos relevantes de la empresa y la autoridad para responsabilizar a las empresas que no cumplan. Si o cuando las cosas salir mal, la agencia debería tener la autoridad para investigar lo sucedido, de la misma manera que la junta de transporte puede investigar a Boeing después de sus recientes percances.

Controlar los daños de las redes sociales es una tarea difícil. Pero tenemos que empezar por algún lado, y los intentos de prohibir las plataformas después de que ya se hayan vuelto enormemente influyentes, como están tratando de hacer algunos legisladores estadounidenses con Tik Toksimplemente configura un juego interminable de golpear al topo.

Las plataformas pueden rastrear la cantidad de cuentas eliminadas, la cantidad de publicaciones eliminadas y los motivos por los que se tomaron esas acciones. También debería ser factible crear una base de datos para toda la empresa de identificaciones de dispositivos ocultas pero rastreables para teléfonos y direcciones IP que se han utilizado para cometer violaciones de privacidad, seguridad y otras reglas, incluidos enlaces a las publicaciones y actividades que fueron la base para la decisión. para catalogar a la persona y al dispositivo.

Las empresas también deben compartir cómo se utilizan los algoritmos para moderar el contenido, junto con detalles sobre sus salvaguardas para evitar sesgos (investigación indica que, por ejemplo, la detección automatizada del discurso de odio muestra prejuicios raciales y puede amplificar el daño basado en la raza). Como mínimo, se prohibiría a las empresas aceptar pagos de terrorista grupos que buscan verificar cuentas de redes sociales, como descubrió el Tech Transparency Project que estaba haciendo X (anteriormente Twitter).

La gente a menudo olvida cuánto contenido se elimina ya en las redes sociales, incluidas prohibiciones de pornografía infantil, filtros de spam y suspensiones de cuentas individuales como la que rastreó El jet privado de Elon Musk. Regular estas empresas privadas para evitar el acoso, el intercambio de datos dañinos y la desinformación es una extensión necesaria y natural para la seguridad, la privacidad y la experiencia del usuario.

Proteger la privacidad y la seguridad de los usuarios requiere investigación y conocimientos sobre cómo funcionan las empresas de redes sociales, cómo se redactaron sus políticas actuales y cómo se han tomado y aplicado históricamente sus decisiones de moderación de contenido. Los equipos de seguridad, cuyos miembros realizan el trabajo esencial de moderación de contenidos y poseen conocimientos internos vitales, se han reducido recientemente en empresas como Amazonas, Gorjeo y Google. Esos despidos, además del creciente número de personas que siguen carreras tecnológicas pero encuentran incertidumbre en el sector tecnológico privado, dejan a numerosas personas en el mercado laboral con las habilidades y el conocimiento para abordar estos problemas. Podrían ser contratados por una nueva agencia para crear soluciones prácticas y efectivas.

La regulación tecnológica es un tema poco común que cuenta con apoyo bipartidista. Y en 2018, el Congreso creó una agencia para proteger la ciberseguridad del gobierno. Puede y debe crear otra agencia reguladora para enfrentar las amenazas de tecnologías heredadas y emergentes de empresas nacionales y extranjeras. De lo contrario, seguiremos experimentando un desastre en las redes sociales tras otro.

Anika Collier Navaroli es periodista, abogada e investigadora principal del Tow Center for Digital Journalism de la Escuela de Periodismo de Columbia. También es una exfuncionaria de alto rango de políticas en Twitter y Twitch. Ellen K. Pao es una inversora y defensora de la tecnología, ex directora ejecutiva de Reddit y cofundadora de la galardonada organización sin fines de lucro de diversidad e inclusión Project Include.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *