ChatGPT: Estados Unidos pone freno al acceso de China al software de inteligencia artificial detrás de aplicaciones como ChatGPT

La administración Biden está preparada para abrir un nuevo frente en su esfuerzo por salvaguardar A NOSOTROS IA de Porcelana con planes preliminares para colocar barreras alrededor de los modelos de IA más avanzados, el software central de los sistemas de inteligencia artificial como ChatGPTdijeron las fuentes.

El Departamento de Comercio está considerando una nueva impulso regulatorio para restringir la exportación de modelos de IA propietarios o de código cerrado, cuyo software y los datos con los que se entrena se mantienen en secreto, dijeron tres personas familiarizadas con el asunto.

Mejore su destreza tecnológica con cursos de habilidades de alto valor

Ofreciendo universidad Curso Sitio web
IIT Delhi Programa de certificación en ciencia de datos y aprendizaje automático Visita
CON Liderazgo e innovación tecnológica del MIT Visita
Escuela de Negocios de la India Gestión de productos ISB Visita

Cualquier acción complementaría una serie de medidas implementadas durante los últimos dos años para bloquear la exportación de chips de inteligencia artificial sofisticados a China en un esfuerzo por frenar el desarrollo de tecnología de punta por parte de Beijing con fines militares. Aun así, será difícil para los reguladores seguir el ritmo de los rápidos avances de la industria.

El Departamento de Comercio declinó hacer comentarios. El embajada china en Washington no respondió de inmediato a una solicitud de comentarios.

Actualmente, nada detiene a los gigantes estadounidenses de la IA como microsoft -Respaldados Abierto AIAlfabeto Google DeepMind y rival antrópicoque han desarrollado algunos de los modelos de IA de código cerrado más potentes, desde venderlos a casi cualquier persona en el mundo sin supervisión gubernamental.

A los investigadores del gobierno y del sector privado les preocupa que los adversarios estadounidenses puedan utilizar los modelos, que extraen grandes cantidades de texto e imágenes para resumir información y generar contenido, para lanzar ciberataques agresivos o incluso crear potentes ataques cibernéticos. armas biológicas.

Descubre las historias de tu interés


Para desarrollar un Control de exportación En cuanto a los modelos de IA, las fuentes dijeron que Estados Unidos podría recurrir a un umbral contenido en una orden ejecutiva de IA emitida en octubre pasado que se basa en la cantidad de potencia informática necesaria para entrenar un modelo. Cuando se alcanza ese nivel, un desarrollador debe informar sus planes de desarrollo del modelo de IA y proporcionar los resultados de las pruebas al Departamento de Comercio. Ese umbral de potencia informática podría convertirse en la base para determinar qué modelos de IA estarían sujetos a restricciones de exportación, según dos funcionarios estadounidenses y otra fuente informada sobre las discusiones. Se negaron a ser identificados porque los detalles no se han hecho públicos.

Si se utiliza, probablemente sólo restringiría la exportación de modelos que aún no se han lanzado, ya que se cree que ninguno ha alcanzado el umbral todavía, aunque se considera que el Gemini Ultra de Google está cerca, según EpochAI, un instituto de investigación que sigue las tendencias de la IA. .

La agencia está lejos de finalizar una propuesta de reglamentación, subrayaron las fuentes. Pero el hecho de que se esté considerando una medida de este tipo muestra que el gobierno de Estados Unidos está buscando cerrar brechas en su esfuerzo por frustrar las ambiciones de IA de Beijing, a pesar de los serios desafíos para imponer un régimen regulatorio fuerte a esta tecnología en rápida evolución.

Mientras la administración Biden analiza la competencia con China y los peligros de la IA sofisticada, los modelos de IA «son obviamente una de las herramientas, uno de los posibles puntos de estrangulamiento en los que hay que pensar aquí», dijo Peter Harrell, ex Consejo de Seguridad Nacional. oficial. «Queda por ver si, de hecho, en la práctica, se puede convertirlo en un cuello de botella controlable para las exportaciones», añadió.

¿ARMAS BIOLÓGICAS Y ATAQUES CIBERNÉTICOS?

La comunidad de inteligencia, los grupos de expertos y los académicos estadounidenses están cada vez más preocupados por los riesgos que plantea el hecho de que actores extranjeros malintencionados obtengan acceso a capacidades avanzadas de IA. Los investigadores de Gryphon Scientific y Rand Corporation señalaron que los modelos avanzados de IA pueden proporcionar información que podría ayudar a crear armas biológicas.

El Departamento de Seguridad Nacional dijo que los ciberactores probablemente utilizarían la IA para «desarrollar nuevas herramientas» que «permitan ciberataques a mayor escala, más rápidos, eficientes y más evasivos» en su evaluación de amenazas nacionales de 2024.

Cualquier nueva norma de exportación también podría afectar a otros países, dijo una de las fuentes.

«La potencial explosión de [AI’s] «El uso y la explotación son radicales y en realidad nos está costando mucho seguir eso», dijo Brian Holmes, funcionario de la Oficina del Director de Inteligencia Nacional, en una reunión sobre control de exportaciones en marzo, señalando el avance de China como un problema particular. inquietud.

Represión de la IA

Para abordar estas preocupaciones, Estados Unidos ha tomado medidas para detener el flujo de chips de IA estadounidenses y las herramientas para fabricarlos hacia China.

También propuso una regla para exigir que las empresas de nube estadounidenses informen al gobierno cuando los clientes extranjeros utilizan sus servicios para entrenar potentes modelos de IA que podrían usarse para ataques cibernéticos.

Pero hasta ahora no se ha abordado los modelos de IA en sí. Alan Estevez, que supervisa la política de exportaciones de EE. UU. en el Departamento de Comercio, dijo en diciembre que la agencia estaba analizando opciones para regular las exportaciones de modelos de lenguaje grande (LLM) de código abierto antes de buscar comentarios de la industria.

Tim Fist, experto en políticas de IA del grupo de expertos CNAS con sede en Washington DC, dice que el umbral «es una buena medida temporal hasta que desarrollemos mejores métodos para medir las capacidades y los riesgos de los nuevos modelos».

El umbral no está escrito en piedra. Una de las fuentes dijo que Comercio podría terminar con un piso más bajo, junto con otros factores, como el tipo de datos o los usos potenciales del modelo de IA, como la capacidad de diseñar proteínas que podrían usarse para fabricar un arma biológica.

Independientemente del umbral, las exportaciones de modelos de IA serán difíciles de controlar. Muchos modelos son de código abierto, lo que significa que quedarían fuera del ámbito de los controles de exportación que se están considerando.

Incluso imponer controles a los modelos patentados más avanzados resultará desafiante, ya que los reguladores probablemente tendrán dificultades para definir los criterios correctos para determinar qué modelos deberían controlarse, dijo Fist, señalando que China probablemente esté sólo dos años por detrás de Estados Unidos en desarrollando su propio software de inteligencia artificial.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *