Esto es lo que significa para las empresas tecnológicas estadounidenses
La histórica ley de inteligencia artificial de la Unión Europea entra oficialmente en vigor el jueves, y significa cambios difíciles para los gigantes tecnológicos estadounidenses.
La Ley de IA, una norma histórica que tiene como objetivo regular la forma en que las empresas desarrollan, usan y aplican la IA, fue recibió la aprobación final de los estados miembros de la UE, los legisladores y la Comisión Europea —el órgano ejecutivo de la UE— en mayo.
CNBC ha repasado todo lo que necesita saber sobre la Ley de IA y cómo afectará a las mayores empresas tecnológicas mundiales.
¿Qué es la Ley de Inteligencia Artificial?
La Ley de Inteligencia Artificial (IA) es una ley de la UE que regula la inteligencia artificial. Propuesta por primera vez por la Comisión Europea en 2020, la ley tiene como objetivo abordar los impactos negativos de la IA.
Se dirigirá principalmente a las grandes empresas tecnológicas estadounidenses, que actualmente son los principales constructores y desarrolladores de los sistemas de inteligencia artificial más avanzados.
Sin embargo, muchas otras empresas quedarán bajo el alcance de las normas, incluso empresas no tecnológicas.
El reglamento establece un marco regulatorio integral y armonizado para la IA en toda la UE, aplicando un enfoque basado en el riesgo para regular la tecnología.
Tanguy Van Overstraeten, director de tecnología, medios y práctica tecnológica del bufete de abogados Linklaters en Bruselas, dijo que la Ley de Inteligencia Artificial de la UE es «la primera de su tipo en el mundo».
«Es probable que afecte a muchas empresas, especialmente a aquellas que desarrollan sistemas de IA, pero también a aquellas que los implementan o simplemente los utilizan en determinadas circunstancias».
La legislación aplica un enfoque basado en el riesgo para regular la IA, lo que significa que las diferentes aplicaciones de la tecnología se regulan de manera diferente dependiendo del nivel de riesgo que representan para la sociedad.
Por ejemplo, en el caso de las aplicaciones de IA consideradas de «alto riesgo», la Ley de IA establecerá obligaciones estrictas, como la aplicación de sistemas adecuados de evaluación y mitigación de riesgos, conjuntos de datos de entrenamiento de alta calidad para minimizar el riesgo de sesgo, el registro sistemático de la actividad y la obligación de compartir con las autoridades documentación detallada sobre los modelos para evaluar su cumplimiento.
Algunos ejemplos de sistemas de IA de alto riesgo incluyen vehículos autónomos, dispositivos médicos, sistemas de toma de decisiones sobre préstamos, sistemas de calificación educativa y sistemas de identificación biométrica remota.
La ley también impone una prohibición general de cualquier aplicación de IA que se considere “inaceptable” en términos de su nivel de riesgo.
Las aplicaciones de IA con riesgos inaceptables incluyen sistemas de «puntaje social» que clasifican a los ciudadanos basándose en la agregación y el análisis de sus datos, vigilancia predictiva y el uso de tecnología de reconocimiento emocional en el lugar de trabajo o las escuelas.
¿Qué significa esto para las empresas tecnológicas estadounidenses?
A los gigantes estadounidenses les gusta Microsoft, Google, Amazonas, Manzanay Meta se han asociado agresivamente e invertido miles de millones de dólares en empresas que creen que pueden ser líderes en inteligencia artificial en medio de un frenesí global en torno a la tecnología.
Las plataformas en la nube como Microsoft Azure, Amazon Web Services y Google Cloud también son clave para respaldar el desarrollo de la IA, dada la enorme infraestructura informática necesaria para entrenar y ejecutar modelos de IA.
En este sentido, las grandes empresas tecnológicas sin duda estarán entre los nombres más atacados por las nuevas reglas.
«La Ley de Inteligencia Artificial tiene implicaciones que van mucho más allá de la UE. Se aplica a cualquier organización con cualquier operación o impacto en la UE, lo que significa que la Ley de Inteligencia Artificial probablemente se aplicará a usted sin importar dónde se encuentre», dijo Charlie Thompson, vicepresidente sénior de EMEA y LATAM de la firma de software empresarial Appian, a CNBC por correo electrónico.
«Esto generará un mayor escrutinio sobre los gigantes tecnológicos en lo que respecta a sus operaciones en el mercado de la UE y su uso de los datos de los ciudadanos de la UE», añadió Thompson.
Meta ya ha restringido la disponibilidad de su modelo de IA en Europa debido a preocupaciones regulatorias, aunque esta medida no se debió necesariamente a la Ley de IA de la UE.
El propietario de Facebook dijo a principios de este mes que no haría que sus modelos LLaMa estuvieran disponibles en la UE, citando la incertidumbre sobre si cumple con el Reglamento General de Protección de Datos de la UE, o GDPR.
Anteriormente se le había ordenado a la empresa que dejara de entrenar a sus modelos en publicaciones de Facebook e Instagram en la UE debido a preocupaciones de que pudiera violar el RGPD.
¿Cómo se trata la IA generativa?
La IA generativa está etiquetada en la Ley de IA de la UE como un ejemplo de inteligencia artificial de «propósito general».
Esta etiqueta se refiere a herramientas que están diseñadas para poder realizar una amplia gama de tareas a un nivel similar, o incluso mejor, que el de un humano.
Los modelos de IA de propósito general incluyen, entre otros, GPT de OpenAI, Gemini de Google y Claude de Anthropic.
Para estos sistemas, la Ley de IA impone requisitos estrictos, como respetar la legislación de derechos de autor de la UE, emitir informes de transparencia sobre cómo se entrenan los modelos y realizar pruebas rutinarias y protecciones de ciberseguridad adecuadas.
Sin embargo, no todos los modelos de IA reciben el mismo trato. Los desarrolladores de IA han dicho que la UE debe garantizar que los modelos de código abierto (que son gratuitos para el público y se pueden usar para crear aplicaciones de IA personalizadas) no estén regulados de manera demasiado estricta.
Algunos ejemplos de modelos de código abierto incluyen LLaMa de Meta, Stable Diffusion de Stability AI y 7B de Mistral.
La UE establece algunas excepciones para los modelos de IA generativa de código abierto.
Pero para calificar para la exención de las reglas, los proveedores de código abierto deben hacer que sus parámetros, incluidos los pesos, la arquitectura del modelo y el uso del modelo, estén disponibles públicamente y permitir el «acceso, uso, modificación y distribución del modelo».
Los modelos de código abierto que plantean riesgos “sistémicos” no contarán para la exención, según la Ley de IA.
«Es necesario evaluar cuidadosamente cuándo se activan las reglas y el papel de las partes interesadas involucradas», dijo Van Overstraeten.
¿Qué pasa si una empresa incumple las normas?
Empresas que incumplen la Ley de Inteligencia Artificial de la UE Podría ser multado entre 35 millones de euros (41 millones de dólares) o el 7% de sus ingresos anuales globales (el monto que sea mayor) hasta 7,5 millones o el 1,5% de sus ingresos anuales globales.
La cuantía de las sanciones dependerá de la infracción y del tamaño de la empresa multada.
Esta cifra es superior a las multas que pueden imponerse en virtud del RGPD, la estricta ley europea de privacidad digital. Las empresas se enfrentan a multas de hasta 20 millones de euros o el 4 % de su facturación global anual por infracciones del RGPD.
La supervisión de todos los modelos de IA que entran en el ámbito de aplicación de la Ley, incluidos los sistemas de IA de propósito general, estará a cargo de la Oficina Europea de IA, un organismo regulador creado por la Comisión en febrero de 2024.
Jamil Jiva, director global de gestión de activos de la empresa fintech Linedata, dijo a CNBC que la UE «entiende que necesitan imponer multas significativas a las empresas infractoras si quieren que las regulaciones tengan un impacto».
De manera similar a cómo el RGPD demostró la forma en que la UE podía «ejercitar su influencia regulatoria para imponer las mejores prácticas de privacidad de datos» a nivel global, con la Ley de IA, el bloque está nuevamente tratando de replicar esto, pero para IA, agregó Jiva.
Aun así, vale la pena señalar que, si bien la Ley de IA finalmente entró en vigor, la mayoría de las disposiciones de la ley no entrarán en vigor hasta al menos 2026.
Las restricciones a los sistemas de propósito general no comenzarán hasta 12 meses después de la entrada en vigor de la Ley de IA.
A los sistemas de IA generativa que actualmente están disponibles comercialmente (como ChatGPT de OpenAI y Gemini de Google) también se les concede un «período de transición» de 36 meses para que sus sistemas cumplan con las normas.