Mis imágenes de desnudos fueron compartidas en línea cuando tenía 14 años y me inspiraron a luchar por otros sobrevivientes: esta es la razón por la que creo que las grandes tecnologías son las culpables
Con tan solo 14 años, Leah Juliett envió imágenes desnudas a un chico en Facebook Se compartieron en línea, primero con otros niños de la escuela y luego en foros de mensajes anónimos de Internet.
Juliett, que se identifica como no binaria y usa los pronombres «ellos», le dijo a DailyMail.com: «Todo comenzó en un iPhoneLuego circuló en Facebook.
«Luego, las imágenes de abusos que había hecho encontraron su lugar permanente en un foro de imágenes anónimo llamado Anon IB. Ese sitio web todavía existe hoy en día».
La defensora, que ahora tiene 27 años, dice que la experiencia fue devastadora y la inspiró a convertirse en activista en la lucha contra lo que considera la inacción de las grandes tecnológicas para prevenir el abuso sexual infantil basado en imágenes.
Leah Juliett, que ahora tiene 27 años, se ha convertido en una defensora contra el abuso que permite la tecnología.
Continuaron: “Cuando me pasó esto, cuando tenía 14 años, quería morir. Intenté morir. No puedo decirlo lo suficiente. Mi misión es luchar por la rendición de cuentas de las grandes tecnológicas y por la justicia para los sobrevivientes”.
En 2017, lanzaron la Marcha contra la pornografía vengativa en el Puente de Brooklyn, comenzando un viaje como defensora contra el abuso facilitado por la tecnología que finalmente llevó a Juliett a la casa Blanca.
Juliett ahora hace campaña para la Iniciativa Heat, que tiene como objetivo responsabilizar a Apple por la difusión de imágenes de abuso en iCloud de la empresa.
Dijeron: «Realmente usé mi vergüenza como una fuerza para el bien social. Pero solo tengo 27 años. No quería ni esperaba que esta fuera mi vida. Cuando era pequeña, quería ser cantante.
‘Pero como esta es mi vida, y porque lamentablemente sigue siendo así para tantos adolescentes y niños vulnerables en todo nuestro país y en todo el mundo, aún llevo conmigo el trauma.
«Es una parte muy arraigada de mi persona y una razón fundamental por la que hago el trabajo que hago. Pero ahora soy más fuerte. He creado una caja de herramientas para recuperar la vergüenza que experimenté y usarla para el bien».
Julieta Le dijo a este sitio web que desde 2017, el lenguaje en torno al tema ha cambiado enormemente.
Juliett dijo: ‘Todo el paisaje de la [revenge porn] La cuestión ha cambiado desde… cuando crucé por primera vez el Puente de Brooklyn.
‘Ya no usamos ese término. Porque no hay nada que haya hecho que justifique una venganza contra mi cuerpo. Y la desnudez no consentida [is] No pornografía.
«Hablamos de abuso sexual basado en imágenes y material de abuso sexual infantil. Son términos más precisos para describir los delitos reales que les suceden a los niños todos los días en todo el país».
Agregaron que «millones» de usuarios de Internet en todo el mundo son víctimas de abusos similares y «el teléfono es el mecanismo de transmisión».
La clave para derrotar el abuso basado en imágenes, dijeron a DailyMail.com, es la legislación bipartidista y la educación.
Pero las grandes tecnológicas también son parte del problema.
Juliett dijo: «Es un momento importante para que miremos hacia arriba y reconozcamos que no podemos solucionar el problema en el pozo de agua. Tenemos que solucionarlo en la fuente. Y en mi trabajo, y en mi experiencia durante la última década como sobreviviente y experta en este campo, he reconocido que esa fuente es el iPhone.
‘Lo que la gente no se da cuenta es que estas empresas tecnológicas, incluida Apple, especialmente Apple, no son simplemente laboratorios de innovación, como a Apple le gusta referirse a sí misma, son empresas que ofrecen productos y servicios.’
A diferencia de las tiendas de alimentos, por ejemplo, a las que no se les permite vender productos que envenenan a las personas, hay poca legislación en torno a las grandes tecnológicas, cree Juliett.
Agregaron: ‘Son empresas que ofrecen servicios a las personas y las personas están sufriendo daños severos a manos de sus productos.
«Personalmente, creo que hay muchas cosas que pueden hacer para prevenir este tipo de daños. Y hay una razón muy clara por la que no lo hacen: porque continuamente priorizan el lucro por encima de las personas».
Los datos del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) sugirieron que Apple había documentado 267 casos de material de abuso sexual infantil (CSAM) en todo el mundo entre abril de 2022 y marzo de 2023.
Se estima que el número de usuarios de iPhone en todo el mundo es más de mil millones.
Cuando Juliett tenía 14 años, las imágenes de desnudos que le enviaron a un niño se compartieron en línea.
Juliett le dijo a este sitio web: ‘Podrían ofrecer un mecanismo de denuncia más sólido en sus plataformas. Por ejemplo, sabemos que Meta tiene un sólido historial de denuncias al Centro Nacional para Niños Desaparecidos y Explotados.
‘En cambio, Apple no tiene, ni por asomo, un historial de denuncias tan importante, pero sabemos que el abuso está ocurriendo en iCloud’.
Apple declaró en 2021 que implementaría ‘NeuralHash’, un algoritmo diseñado para detectar y eliminar CSAM en iCloud.
Pero varios meses después, el programa se suspendió por cuestiones de privacidad.
Juliett dijo: ‘Lo más básico que podrían hacer hoy es iniciar un hash básico, detección de coincidencias de hash y iCloud, que básicamente convierte un fragmento de CSAM conocido en una cadena única de números a través de un algoritmo. Convierte la imagen en una especie de huella digital y luego se compara con una lista de otras huellas digitales.
«Podrían hacerlo. Inícienlo hoy y salven vidas de niños hoy detectando imágenes conocidas de abuso sexual infantil».
En una respuesta de la empresa a la Iniciativa Heat con respecto a su reversión, el director de privacidad del usuario y seguridad infantil de Apple, Erik Neuenschwander, dijo: «El material de abuso sexual infantil es aborrecible y estamos comprometidos a romper la cadena de coerción e influencia que hace que los niños sean susceptibles a él».
Sin embargo, dijo, después de trabajar con expertos en privacidad y seguridad, grupos de derechos digitales y defensores de la seguridad infantil, Apple determinó que no podía continuar con su mecanismo de escaneo CSAM, incluso uno específicamente construido para proteger la privacidad.
Neuenschwander escribió: ‘Escanear los datos privados almacenados en iCloud de cada usuario crearía nuevos vectores de amenaza que los ladrones de datos podrían encontrar y explotar. También generaría la posibilidad de una pendiente resbaladiza de consecuencias no deseadas.
‘Escanear un tipo de contenido, por ejemplo, abre la puerta a una vigilancia masiva y podría generar el deseo de buscar otros sistemas de mensajería encriptada en todos los tipos de contenido’.
Juliett, que ahora tiene 27 años, dijo que la experiencia fue devastadora.
DailyMail.com contactó a Apple para solicitar comentarios y fue dirigido a una declaración anterior de Apple a Heat Initiative.
La declaración decía: ‘El material de abuso sexual infantil es aborrecible y estamos comprometidos a romper la cadena de coerción e influencia que hace que los niños sean susceptibles a él.
‘Estamos orgullosos de las contribuciones que hemos hecho hasta ahora y tenemos la intención de seguir trabajando en colaboración con organizaciones de seguridad infantil, tecnólogos y gobiernos en soluciones duraderas que ayuden a proteger a los miembros más vulnerables de nuestra sociedad.
‘Con respecto a ayudar a los niños a mantenerse seguros, hemos hecho contribuciones significativas hacia este objetivo mediante el desarrollo de una serie de tecnologías innovadoras.
‘Como usted señala, decidimos no seguir adelante con la propuesta de un enfoque híbrido cliente-servidor para la detección de CSAM para Fotos de iCloud de hace unos años, por varias buenas razones.
‘Después de haber consultado ampliamente con defensores de la seguridad infantil, organizaciones de derechos humanos, tecnólogos de privacidad y seguridad y académicos, y de haber considerado la tecnología de escaneo desde prácticamente todos los ángulos, concluimos que no era prácticamente posible implementarla sin poner en peligro en última instancia la seguridad y la privacidad de nuestros usuarios.
‘Las empresas suelen utilizar el escaneo de datos personales en la nube para monetizar la información de sus usuarios. Si bien algunas empresas han justificado estas prácticas, nosotros hemos elegido un camino muy diferente: uno que prioriza la seguridad y la privacidad de nuestros usuarios. En nuestra opinión, escanear el contenido privado almacenado en iCloud de cada usuario podría tener graves consecuencias no deseadas para nuestros usuarios’.
La declaración completa se puede leer aquí.
Juliett hace campaña contra el abuso basado en imágenes de diversas maneras, incluso a través de la poesía.
Pero Juliett dijo que seguirán luchando.
Le dijeron a DailyMail.com: «Cuento muchas historias a través de la poesía. Y seguiré usando mi voz para contar mi historia y gritar mis poemas… adonde sea que me lleve el viento hasta que vea una reforma a gran escala en el sector tecnológico».
‘Cuando comencé la Marcha contra la pornografía vengativa en 2016, me pareció una lucha muy solitaria. Pero 10 años después, me di cuenta de que no tenía por qué estar sola. No tengo por qué estar sola.
«Ahora soy parte de un grupo increíble de sobrevivientes y aliados. Y si hoy encabezo la misma marcha, sé que tendría a mi lado a cientos de sobrevivientes, amigos. Hacer pública mi historia ha sido increíblemente difícil. Pero sé que para esto nací».