Las herramientas de IA ponen en riesgo a las agencias federales de EE. UU.: EE. UU. evalúa los riesgos relacionados con la adopción de herramientas de IA por parte de las agencias federales

Las herramientas de IA ponen en riesgo a las agencias federales de EE. UU.: EE. UU. evalúa los riesgos relacionados con la adopción de herramientas de IA por parte de las agencias federales

En la última medida para frenar el alcance expansivo de las herramientas de inteligencia artificial (IA), la Cámara de Representantes de EE. UU. personal del Congreso prohibido del uso del asistente de IA generativa Copilot de Microsoft.

Según un informe de Axios, la aplicación se considera una amenaza en términos de fuga de datos. «La Oficina de Ciberseguridad ha considerado que la aplicación Microsoft Copilot es un riesgo para los usuarios debido a la amenaza de filtrar datos de la Cámara a servicios en la nube no aprobados por la Cámara», dijo Catherine Szpindor, directora administrativa de la Cámara.

Mejore su destreza tecnológica con cursos de habilidades de alto valor

Ofreciendo universidad Curso Sitio web
Escuela de Negocios de la India Certificado Profesional ISB en Gestión de Productos Visita
IIM Kozhikode IIMK Ciencia de datos avanzada para gerentes Visita
CON Liderazgo e innovación tecnológica del MIT Visita

Los formuladores de políticas en Estados Unidos han estado analizando los riesgos potenciales en la adopción de herramientas de inteligencia artificial por agencias federales y la idoneidad de las salvaguardias para proteger la privacidad individual y garantizar un trato justo.

“Reconocemos que los usuarios gubernamentales tienen mayores requisitos de seguridad para los datos. Es por eso que anunciamos una hoja de ruta para las herramientas de inteligencia artificial de Microsoft, como Copilot, que cumplen con los requisitos de seguridad y cumplimiento del gobierno federal que pretendemos implementar a finales de este año», dijo un portavoz de Microsoft a Reuters.

El año pasado, dos senadores de los partidos Demócrata y Republicano presentaron una legislación para prohibir el uso de IA que crea contenido que representa falsamente a candidatos en anuncios políticos para influir en las elecciones federales. Está previsto que Estados Unidos vaya a las urnas a finales de este año.

El dictado de Kamala Harris

Descubre las historias de tu interés

Mientras tanto, la vicepresidenta de Estados Unidos, Kamala Harris, dijo que las agencias federales deben demostrar que su inteligencia artificial Las herramientas no dañan al público.o dejar de usarlos.

«Cuando las agencias gubernamentales utilicen herramientas de inteligencia artificial, ahora les exigiremos que verifiquen que esas herramientas no ponen en peligro los derechos y la seguridad del pueblo estadounidense», dijo a los periodistas.

Más temprano, el jueves, la Casa Blanca dijo que exigirá a las agencias federales que utilicen IA para adoptar “salvaguardias concretas” antes del 1 de diciembre para proteger los derechos de los estadounidenses y garantizar la seguridad a medida que el gobierno amplía el uso de la IA en una amplia gama de aplicaciones.

Cada agencia debe tener un conjunto de salvaguardas concretas que guíen todo, desde controles de reconocimiento facial en aeropuertos hasta herramientas de inteligencia artificial que ayuden a controlar la red eléctrica o determinar hipotecas y seguros del hogar.

La directiva del jueves también afectará las herramientas de inteligencia artificial que las agencias gubernamentales han estado utilizando durante años para ayudar con decisiones sobre inmigración, vivienda, bienestar infantil y una variedad de otros servicios.

Como ejemplo, Harris dijo: «Si la Administración de Veteranos quiere utilizar la IA en los hospitales de VA para ayudar a los médicos a diagnosticar a los pacientes, primero tendrían que demostrar que la IA no produce diagnósticos con prejuicios raciales».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *