Las noticias, traídas por bots

Con la ayuda de Derek Robertson

Varios humanos tocaron el boletín de hoy antes de leerlo.

Un periodista (ese soy yo) corrió y escribió los hechos. Dos editores ayudaron a darle forma y pulir el borrador. Y un tercero lo formateó para su pantalla y le dio un último escaneo antes de presionar publicar.

Producir noticias sigue siendo un negocio centrado en las personas, a pesar de las recientes y generalizadas pérdidas de empleopero eso está cambiando con la llegada de la inteligencia artificial generativa.

Desde hace varios años, la IA ha podido generar artículos completos más rápido de lo que podría hacerlo un periodista humano. Puede resumir reuniones gubernamentales, juegos deportivos e informes sobre delitos casi al instante. Incluso puede, como intenta un medio de comunicacióngenerar presentadores de televisión falsos. Ha habido algunos errores vergonzosos y la mayoría de las principales organizaciones de noticias están siendo cautelosas, pero dada su velocidad y escalabilidad, la IA ya es una sombra que se cierne sobre los reporteros y editores humanos.

Un tipo diferente de preocupación está afectando a los propietarios de medios y empresarios, que están empezando a ver la IA como una fuerza que podría destruir su frágil modelo de negocio incluso más rápido que la Web o las redes sociales, entregando resúmenes de noticias rápidos a lectores que nunca tienen que hacer clic en , o pagar, el periodismo subyacente.

El miedo resultante sobre el futuro. ya está empujando a los editores de noticias y las plataformas tecnológicas a batallas judiciales y audiencias del comité Se centró en una pregunta con impacto existencial para ambos lados de este argumento: ¿Deberían las empresas de IA pagar por usar las noticias?

«Lo que está en juego no podría ser mayor», dijo Jim Albrecht, ex director senior de productos del ecosistema de noticias en Google. escribió en el Washington Post esta semana. “De un lado del conflicto se encuentra el riesgo existencial para la industria editorial; por el otro, riesgo existencial para la innovación tecnológica”.

Esta lucha tiene sus raíces en la era de la Web 2.0. A medida que plataformas como Facebook, Google y Twitter se convirtieron en distribuidores de noticias dominantes, mermando los ingresos de los editores en el proceso, los medios de comunicación han presionado para que se apliquen leyes que los obliguen a pagar por el periodismo. Algunos de ellos han pasado; muchos otros no lo han hecho. Y ninguno de ellos ha salvado al periodismo.

A los editores ahora les preocupa que la IA generativa empeore aún más las cosas – una vez más, una tecnología que se aprovecha de su trabajo y que aleja a los lectores de él. A diferencia de las redes sociales, la IA no es una plataforma para compartir artículos y vídeos existentes. Literalmente trenes sobre el contenido de los medios y luego regurgita esa información en su propio contenido.

«Estos productos compiten en el mismo mercado, con la misma audiencia y tienen el mismo propósito que los artículos originales que alimentan los algoritmos en primer lugar», dijo Danielle Coffey, presidenta y directora ejecutiva de News/Media Alliance, testificó en el Senado el mes pasado.

Entonces, ¿qué hacer? Algunas redacciones están formando asociaciones con desarrolladores de inteligencia artificial. (empresa matriz de POLITICO Axel Springer tiene uno con OpenAIpor ejemplo). Otros se están preparando para la batalla, impidiendo que los robots usen su material y demandando para defender su trabajo protegido por derechos de autor. más notablemente el New York Times.

En realidad, esto podría ser miope, argumenta Marc Lavallee, director de estrategia y productos tecnológicos del programa de periodismo de la Fundación Knight. Lavallee ve la IA como una parte clave de la estrategia de la fundación para revitalizar las redacciones, particularmente las publicaciones pequeñas y locales, ayudándolas a producir más periodismo manteniendo a los humanos en la mezcla.

Como la IA puede ser útil, además de perjudicial, sostiene que simplemente exigir un pago a los desarrolladores de IA coloca a la industria de las noticias en una “posición peligrosa”.

En una entrevista en episodio de hoy del podcast POLITICO TechLavallee señala que las organizaciones de noticias están también parte de un ecosistema que depende del flujo de información, que restringen bajo su propio riesgo: “Esta idea de que todos los demás deben a las organizaciones de noticias por cada forma en que se usaron las cosas, cuando a su vez generan valor a partir del uso legítimo… Parece simplemente un enfoque complicado y reduccionista”, dijo.

Escuche la entrevista completa y suscríbase a POLITICO Tech en Manzana, Spotify o transmisión simple.

Anteriormente, Lavallee pasó una década en el New York Times y supervisó el equipo encargado de aplicar tecnologías emergentes al periodismo. Sugiere que las organizaciones de noticias deberían tomar un respiro y aprender primero lo que realmente hacen los consumidores. desear del periodismo en la era de la IA. Sólo entonces podrán comprender plenamente el valor que el periodismo aporta a la tecnología y las formas en que la tecnología mejorará el periodismo.

Eso podría incluir bots que ayuden a los lectores a profundizar en los eventos actuales o herramientas generativas que entreguen rápidamente los mismos informes en múltiples formatos. Ve un “tremendo potencial de crecimiento” tanto para las organizaciones de noticias como para sus audiencias.

«Todavía no tenemos un gran modelo de cómo se ve eso», añadió. «Creo que se necesitarán un puñado de ejemplos específicos durante los próximos dos años para que podamos siquiera empezar a ver cómo se ve».

Mientras tanto, Lavallee reconoce que las cosas estarán complicadas. Es probable que la tecnología afecte aún más a los empleos periodísticos y habrá más disputas legales y legislativas. Pero al final, predice que los humanos seguirán siendo fundamentales para el periodismo.

«Veremos a las organizaciones hacer lo peor que tememos aquí: despedir humanos y reemplazarlos con pequeños robots basura que generan contenido», dijo. «Mi esperanza es que el mercado para esto disminuya, porque el mismo tipo de tecnologías habilitadoras subyacentes, utilizadas en las manos adecuadas, en última instancia con humanos involucrados, finalmente crean un producto mejor y más relevante».

Las primeras elecciones presidenciales de Estados Unidos en la era de la IA se avecina, sin soluciones fáciles en el horizonte.

Mohar Chatterjee y Madison Fernández de POLITICO informó esta mañana sobre la avalancha de deepfakes e información falsa generada por IA que ya han aparecido, y cómo los funcionarios electorales están luchando para combatirla. Las principales empresas de IA que ya están colaborando con la Casa Blanca de Biden en materia de regulación se han comprometido a prohibir el uso de su tecnología para esos usos, pero los organismos de control dicen que el peor contenido político generado por la IA probablemente provenga de los sectores marginales.

“Va a ser muy difícil regularlo”, dijo a Mohar y Madison Rachel Orey, directora asociada principal del Proyecto de Elecciones del Centro de Política Bipartidista. “Todo el mundo habla de OpenAI y ChatGPT, pero es poco probable que de ahí provengan los casos de uso más perniciosos. Provendrán de tecnología de código abierto no regulada”.

Algunos estados han aprobado leyes que prohíben el uso de IA en mensajes políticos, pero como los legisladores han aprendido con oleadas pasadas de innovación tecnológica, es casi imposible volver a meter al genio en la botella.

«La realidad es que la tecnología para crear deepfakes seguirá avanzando, tal como estamos avanzando en la tecnología para detectarlos», dijo a POLITICO Ginny Badanes, directora senior de la iniciativa Democracy Forward de Microsoft. «Será una carrera armamentista para siempre». — Derek Robertson

La Unión Europea está tomando sus propias precauciones por imágenes sexuales deepfake no autorizadas después de la circulación la semana pasada de algunas que involucraban a Taylor Swift.

Clotilde Goujard, de POLITICO reportado ayer sobre el acuerdo que la UE alcanzó en un proyecto de ley que prohibiría dicho contenido para 2027. En este momento, el Reglamento Global de Privacidad de Datos de la UE, la Ley de Servicios Digitales y las leyes nacionales de difamación protegen a los residentes contra tales imágenes o acoso, pero este proyecto de ley criminalizaría explícitamente las imágenes generadas por IA. falsificaciones profundas.

“Nuestro compromiso de salvaguardar la dignidad y los derechos de las mujeres y las niñas en Europa ha llevado a la penalización de diversas formas de ciberviolencia, como el intercambio no consensuado de imágenes íntimas, incluidos los deepfakes, el ciberacoso, el ciberacoso, el discurso de odio misógino y el ciberacoso. «Parpadeando», dijo a Clothilde la comisaria europea de Igualdad, Helena Dalli. — Derek Robertson