Principales riesgos cibernéticos en las elecciones del Reino Unido

Principales riesgos cibernéticos en las elecciones del Reino Unido

Se espera que la desinformación esté entre los principales riesgos cibernéticos para las elecciones de 2024.

Andrés Brookes | Fuente de la imagen | imágenes falsas

Se espera que Gran Bretaña enfrente una avalancha de ciberataques respaldados por el Estado y campañas de desinformación mientras se acerca a las urnas en 2024, y la inteligencia artificial es un riesgo clave, según expertos cibernéticos que hablaron con CNBC.

Los británicos votarán el 2 de mayo en las elecciones locales y se esperan elecciones generales en la segunda mitad de este año, aunque el primer ministro británico, Rishi Sunak, aún no se ha comprometido a fijar una fecha.

Las votaciones se producen cuando el país enfrenta una serie de problemas que incluyen una crisis del costo de vida y marcadas divisiones sobre inmigración y asilo.

«Dado que la mayoría de los ciudadanos del Reino Unido votan en los colegios electorales el día de las elecciones, espero que la mayoría de los riesgos de ciberseguridad surjan en los meses previos al día», dijo a CNBC por correo electrónico Todd McKinnon, director ejecutivo de la firma de seguridad de identidad Okta. .

No sería la primera vez.

En 2016, EE.UU. elecciones presidenciales y Votación del Brexit en el Reino Unido Se descubrió que ambos habían sido perturbados por desinformación compartida en plataformas de redes sociales, supuestamente por grupos afiliados al estado ruso, aunque Moscú niega estas afirmaciones.

Desde entonces, los actores estatales han hecho ataques de rutina en varios países para manipular el resultado de las elecciones, según los ciberexpertos.

Mientras tanto, la semana pasada, el Reino Unido Se alega que el grupo de hackers afiliado al estado chino APT 31 intentó acceder a las cuentas de correo electrónico de los legisladores del Reino Unido.pero dijo que tales intentos no tuvieron éxito. Londres impuso sanciones a individuos chinos y a una empresa de tecnología en Wuhan que se cree que es una fachada para APT 31.

Estados Unidos, Australia y Nueva Zelanda siguieron con sus propias sanciones. China negó las acusaciones de piratería patrocinada por el Estado y las calificó de «infundadas».

Ciberdelincuentes que utilizan IA

Los expertos en ciberseguridad esperan que actores maliciosos interfieran en las próximas elecciones de varias maneras, entre ellas a través de la desinformación, que se espera que sea aún peor este año debido al uso generalizado de la inteligencia artificial.

Las imágenes, vídeos y audio sintéticos generados mediante gráficos por computadora, métodos de simulación e inteligencia artificial (comúnmente conocidos como «falsos profundos») serán algo común a medida que a las personas les resulte más fácil crearlos, dicen los expertos.

«Es probable que los actores de los estados-nación y los ciberdelincuentes utilicen ataques basados ​​en identidades impulsados ​​por IA, como phishing, ingeniería social, ransomware y compromisos de la cadena de suministro para atacar a políticos, personal de campaña e instituciones relacionadas con las elecciones», añadió McKinnon de Okta.

«También estamos seguros de que veremos una afluencia de inteligencia artificial y contenido impulsado por robots generado por actores de amenazas para difundir información errónea a una escala aún mayor que la que hemos visto en ciclos electorales anteriores».

La comunidad de la ciberseguridad ha pedido una mayor conciencia sobre este tipo de información errónea generada por la IA, así como cooperación internacional para mitigar el riesgo de dicha actividad maliciosa.

Principal riesgo electoral

Adam Meyers, jefe de operaciones contra adversarios de la firma de ciberseguridad CrowdStrike, dijo que la desinformación impulsada por la inteligencia artificial es un riesgo importante para las elecciones de 2024.

«En este momento, la IA generativa se puede utilizar para hacer daño o para bien, por lo que cada día vemos que ambas aplicaciones se adoptan cada vez más», dijo Meyers a CNBC.

Es muy probable que China, Rusia e Irán lleven a cabo operaciones de desinformación y desinformación contra varias elecciones globales con la ayuda de herramientas como la IA generativa, según el último informe anual de amenazas de Crowdstrike.

«Este proceso democrático es extremadamente frágil», dijo Meyers a CNBC. «Cuando empiezas a observar cómo Estados nacionales hostiles como Rusia, China o Irán pueden aprovechar la IA generativa y algunas de las tecnologías más nuevas para elaborar mensajes y utilizar falsificaciones profundas para crear una historia o una narrativa que sea convincente para que la gente la acepte, especialmente Cuando la gente ya tiene este tipo de sesgo de confirmación, es extremadamente peligroso».

Un problema clave es que la IA está reduciendo la barrera de entrada para los delincuentes que buscan explotar a las personas en línea. Esto ya ha sucedido en forma de correos electrónicos fraudulentos que se han elaborado utilizando herramientas de inteligencia artificial de fácil acceso como ChatGPT.

Los piratas informáticos también están desarrollando ataques más avanzados (y personales) entrenando modelos de inteligencia artificial con nuestros propios datos disponibles en las redes sociales, según Dan Holmes, especialista en prevención de fraude de la firma regulatoria de tecnología Feedzai.

«Puedes entrenar esos modelos de IA de voz muy fácilmente… a través de la exposición a las redes sociales. [media]», dijo Holmes a CNBC en una entrevista. «Es [about] conseguir ese nivel emocional de compromiso y realmente pensar en algo creativo».

En el contexto de las elecciones, en octubre de 2023 se publicó en la plataforma de redes sociales X un clip de audio falso generado por IA de Keir Starmer, líder del opositor Partido Laborista, abusando del personal del partido. La publicación acumuló hasta 1,5 millones de visitas. según la organización benéfica de corrección de hechos Full Fact.

Es solo un ejemplo de muchos deepfakes que tienen a los expertos en ciberseguridad preocupados por lo que vendrá cuando el Reino Unido se acerque a las elecciones de este año.

Las elecciones son una prueba para los gigantes tecnológicos

Sin embargo, la tecnología deep fake se está volviendo mucho más avanzada. Y para muchas empresas de tecnología, la carrera para vencerlas consiste ahora en combatir fuego con fuego.

«Los deepfakes pasaron de ser algo teórico a estar hoy en día en producción», dijo Mike Tuchen, director ejecutivo de Onfido, a CNBC en una entrevista el año pasado.

«Ahora hay un juego del gato y el ratón en el que se trata de ‘IA contra IA’: usar la IA para detectar deepfakes y mitigar el impacto para nuestros clientes es la gran batalla en este momento».

Los expertos cibernéticos dicen que cada vez es más difícil saber qué es real, pero puede haber algunas señales de que el contenido está manipulado digitalmente.

La IA utiliza indicaciones para generar texto, imágenes y videos, pero no siempre lo hace bien. Entonces, por ejemplo, si estás viendo un video de una cena generado por IA y la cuchara desaparece repentinamente, ese es un ejemplo de una falla de IA.

«Ciertamente veremos más deepfakes a lo largo del proceso electoral, pero un paso fácil que todos podemos dar es verificar la autenticidad de algo antes de compartirlo», añadió McKinnon de Okta.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *