La amenaza de desinformación de la IA generativa es «exagerada», dice un experto cibernético
2024 está previsto que sea el año electoral mundial más importante de la historia. Coincide con el rápido aumento de los deepfakes. Solo en APAC, hubo un aumento de los deepfakes de un 1530% entre 2022 y 2023, según un informe de Sumsub.
Enlace de fotografía | Stock | imágenes falsas
Los expertos en ciberseguridad temen que el contenido generado por inteligencia artificial tenga el potencial de distorsionar nuestra percepción de la realidad, una preocupación que es más preocupante en un año lleno de elecciones críticas.
Pero un importante experto va contra la corriente y sugiere, en cambio, que la amenaza que los deepfakes representan para la democracia puede ser «exagerada».
Martin Lee, líder técnico del grupo de investigación e inteligencia de seguridad Talos de Cisco, dijo a CNBC que cree que los deepfakes, aunque son una tecnología poderosa por derecho propio, no tienen tanto impacto como las noticias falsas.
Sin embargo, las nuevas herramientas de IA generativa «amenazan con facilitar la generación de contenido falso», añadió.
El material generado por IA a menudo puede contener indicadores comúnmente identificables que sugieren que no ha sido producido por una persona real.
El contenido visual, en particular, ha demostrado ser vulnerable a fallas. Por ejemplo, las imágenes generadas por IA pueden contener anomalías visuales, como una persona con más de dos manos o una extremidad fusionada con el fondo de la imagen.
Puede resultar más difícil descifrar entre audio de voz generado sintéticamente y clips de voz de personas reales. Pero la IA sigue siendo tan buena como sus datos de entrenamiento, dicen los expertos.
«Sin embargo, el contenido generado por máquinas a menudo puede detectarse como tal cuando se ve objetivamente. En cualquier caso, es poco probable que la generación de contenido esté limitando a los atacantes», dijo Lee.
Los expertos le dijeron anteriormente a CNBC que Se espera que la desinformación generada por IA sea un riesgo clave. en las próximas elecciones en todo el mundo.
‘Utilidad limitada’
Matt Calkins, director ejecutivo de la empresa de tecnología empresarial Appian, que ayuda a las empresas a crear aplicaciones más fácilmente con herramientas de software, dijo que la IA tiene una «utilidad limitada».
Muchas de las herramientas de IA generativa actuales pueden resultar «aburridas», añadió. «Una vez que te conoce, puede pasar de ser sorprendente a útil [but] simplemente no puede cruzar esa línea en este momento».
«Una vez que estemos dispuestos a confiarle a la IA nuestro conocimiento de nosotros mismos, será realmente increíble», dijo Calkins a CNBC en una entrevista esta semana.
Eso podría convertirla en una herramienta de desinformación más efectiva (y peligrosa) en el futuro, advirtió Calkins, y agregó que no está contento con el progreso que se está logrando en los esfuerzos para regular la tecnología en Estados Unidos.
Podría ser necesario que la IA produzca algo atrozmente «ofensivo» para que los legisladores estadounidenses actúen, añadió. «Dadnos un año. Esperad hasta que la IA nos ofenda. Y entonces tal vez tomemos la decisión correcta», dijo Calkins. «Las democracias son instituciones reactivas», afirmó.
Sin embargo, no importa cuán avanzada sea la IA, Lee de Cisco dice que hay algunas formas probadas de detectar información errónea, ya sea que haya sido creada por una máquina o por un humano.
«La gente necesita saber que estos ataques están sucediendo y ser conscientes de las técnicas que pueden usarse. Cuando nos encontramos con contenido que desencadena nuestras emociones, debemos detenernos, hacer una pausa y preguntarnos si la información en sí es siquiera plausible», sugirió Lee.
«¿Ha sido publicado por un medio de comunicación acreditado? ¿Otros medios de comunicación acreditados informan lo mismo?» él dijo. «Si no, probablemente se trate de una estafa o una campaña de desinformación que debería ignorarse o denunciarse».