Las herramientas de IA ponen en riesgo a las agencias federales de EE. UU.: EE. UU. evalúa los riesgos relacionados con la adopción de herramientas de IA por parte de las agencias federales
Según un informe de Axios, la aplicación se considera una amenaza en términos de fuga de datos. «La Oficina de Ciberseguridad ha considerado que la aplicación Microsoft Copilot es un riesgo para los usuarios debido a la amenaza de filtrar datos de la Cámara a servicios en la nube no aprobados por la Cámara», dijo Catherine Szpindor, directora administrativa de la Cámara.
Mejore su destreza tecnológica con cursos de habilidades de alto valor
Ofreciendo universidad | Curso | Sitio web |
---|---|---|
Escuela de Negocios de la India | Certificado Profesional ISB en Gestión de Productos | Visita |
IIM Kozhikode | IIMK Ciencia de datos avanzada para gerentes | Visita |
CON | Liderazgo e innovación tecnológica del MIT | Visita |
Los formuladores de políticas en Estados Unidos han estado analizando los riesgos potenciales en la adopción de herramientas de inteligencia artificial por agencias federales y la idoneidad de las salvaguardias para proteger la privacidad individual y garantizar un trato justo.
“Reconocemos que los usuarios gubernamentales tienen mayores requisitos de seguridad para los datos. Es por eso que anunciamos una hoja de ruta para las herramientas de inteligencia artificial de Microsoft, como Copilot, que cumplen con los requisitos de seguridad y cumplimiento del gobierno federal que pretendemos implementar a finales de este año», dijo un portavoz de Microsoft a Reuters.
El año pasado, dos senadores de los partidos Demócrata y Republicano presentaron una legislación para prohibir el uso de IA que crea contenido que representa falsamente a candidatos en anuncios políticos para influir en las elecciones federales. Está previsto que Estados Unidos vaya a las urnas a finales de este año.
El dictado de Kamala Harris
Descubre las historias de tu interés
Mientras tanto, la vicepresidenta de Estados Unidos, Kamala Harris, dijo que las agencias federales deben demostrar que su inteligencia artificial Las herramientas no dañan al público.o dejar de usarlos.
«Cuando las agencias gubernamentales utilicen herramientas de inteligencia artificial, ahora les exigiremos que verifiquen que esas herramientas no ponen en peligro los derechos y la seguridad del pueblo estadounidense», dijo a los periodistas.
Más temprano, el jueves, la Casa Blanca dijo que exigirá a las agencias federales que utilicen IA para adoptar “salvaguardias concretas” antes del 1 de diciembre para proteger los derechos de los estadounidenses y garantizar la seguridad a medida que el gobierno amplía el uso de la IA en una amplia gama de aplicaciones.
Cada agencia debe tener un conjunto de salvaguardas concretas que guíen todo, desde controles de reconocimiento facial en aeropuertos hasta herramientas de inteligencia artificial que ayuden a controlar la red eléctrica o determinar hipotecas y seguros del hogar.
La directiva del jueves también afectará las herramientas de inteligencia artificial que las agencias gubernamentales han estado utilizando durante años para ayudar con decisiones sobre inmigración, vivienda, bienestar infantil y una variedad de otros servicios.
Como ejemplo, Harris dijo: «Si la Administración de Veteranos quiere utilizar la IA en los hospitales de VA para ayudar a los médicos a diagnosticar a los pacientes, primero tendrían que demostrar que la IA no produce diagnósticos con prejuicios raciales».