Un hacker robó secretos de OpenAI y hace temer que China también pueda hacerlo

A principios del año pasado, un hacker obtuvo acceso a los sistemas de mensajería interna de OpenAI, el fabricante de ChatGPT, y robó detalles sobre el diseño de las tecnologías de inteligencia artificial de la empresa.

El pirata informático extrajo detalles de las discusiones en un foro en línea donde los empleados hablaban sobre las últimas tecnologías de OpenAI, según dos personas familiarizadas con el incidente, pero no entró en los sistemas donde la empresa aloja y construye su inteligencia artificial.

Los ejecutivos de OpenAI revelaron el incidente a los empleados durante una reunión general en las oficinas de la empresa en San Francisco en abril de 2023, según las dos personas, que discutieron información confidencial sobre la empresa bajo condición de anonimato.

Pero los ejecutivos decidieron no compartir la noticia públicamente porque no se había robado información sobre clientes o socios, dijeron las dos personas. Los ejecutivos no consideraron que el incidente fuera una amenaza para la seguridad nacional porque creían que el pirata informático era un particular sin vínculos conocidos con un gobierno extranjero. La empresa no informó al FBI ni a ninguna otra persona de las fuerzas del orden.

Para algunos empleados de OpenAI, la noticia generó temores de que adversarios extranjeros como China pudieran robar tecnología de inteligencia artificial que, si bien ahora es principalmente una herramienta de trabajo e investigación, podría eventualmente poner en peligro la seguridad nacional de Estados Unidos. También generó preguntas sobre la seriedad con la que OpenAI trataba la seguridad y expuso fracturas dentro de la empresa sobre los riesgos de la inteligencia artificial.

Después de la violación, Leopold Aschenbrenner, un gerente del programa técnico de OpenAI enfocado en garantizar que las futuras tecnologías de IA no causen daños graves, envió una nota a la junta directiva de OpenAI, argumentando que la compañía no estaba haciendo lo suficiente para evitar que el gobierno chino y otros adversarios extranjeros robaran sus secretos.

Leopold Aschenbrenner, un ex investigador de OpenAI, aludió a la violación de seguridad en un podcast el mes pasado y reiteró sus preocupaciones.Crédito…a través de YouTube

Aschenbrenner dijo que OpenAI lo había despedido esta primavera por filtrar otra información fuera de la empresa y argumentó que su despido había tenido motivaciones políticas. Aludió a la filtración en un podcast reciente, pero los detalles del incidente no se habían informado anteriormente. Dijo que la seguridad de OpenAI no era lo suficientemente fuerte como para proteger contra el robo de secretos clave si actores extranjeros se infiltraran en la empresa.

“Apreciamos las inquietudes que Leopold planteó mientras estuvo en OpenAI, y esto no llevó a su despido”, dijo una portavoz de OpenAI, Liz Bourgeois. En referencia a los esfuerzos de la empresa por crear una inteligencia artificial general, una máquina que puede hacer todo lo que hace el cerebro humano, agregó: “Si bien compartimos su compromiso de crear una IAG segura, no estamos de acuerdo con muchas de las afirmaciones que ha hecho desde entonces sobre nuestro trabajo”.

Los temores de que un ataque informático a una empresa tecnológica estadounidense pudiera tener vínculos con China no son descabellados. El mes pasado, Brad Smith, presidente de Microsoft, testificó en el Capitolio sobre cómo los piratas informáticos chinos utilizaron los sistemas del gigante tecnológico para lanzar un ataque de amplio alcance a las redes del gobierno federal.

Sin embargo, según las leyes federales y de California, OpenAI no puede impedir que las personas trabajen en la empresa debido a su nacionalidad, y los investigadores de políticas han dicho que excluir a los talentos extranjeros de los proyectos estadounidenses podría obstaculizar significativamente el progreso de la IA en Estados Unidos.

“Necesitamos que las mentes más brillantes y mejores trabajen en esta tecnología”, dijo Matt Knight, director de seguridad de OpenAI, a The New York Times en una entrevista. “Tiene algunos riesgos y tenemos que descubrirlos”.

(El Times ha demandado OpenAI y su socio, Microsoft, reclaman violación de derechos de autor de contenido noticioso relacionado con sistemas de IA.

OpenAI no es la única empresa que construye sistemas cada vez más potentes utilizando tecnología de inteligencia artificial que mejora rápidamente. Algunas de ellas (la más notable es Meta, propietaria de Facebook e Instagram) comparten libremente sus diseños con el resto del mundo como software de código abierto. Creen que los peligros que plantean las tecnologías de inteligencia artificial actuales son escasos y que compartir código permite a los ingenieros e investigadores de todo el sector identificar y solucionar problemas.

Los sistemas de inteligencia artificial actuales pueden ayudar a difundir desinformación en línea, incluyendo: texto, imágenes fijas y, cada vez más, vídeos. También están empezando a eliminar algunos puestos de trabajo.

Empresas como OpenAI y sus competidores Anthropic y Google agregan restricciones a sus aplicaciones de IA antes de ofrecerlas a individuos y empresas, con la esperanza de evitar que las personas utilicen las aplicaciones para difundir desinformación o causar otros problemas.

Pero no hay muchas pruebas de que las tecnologías de inteligencia artificial actuales supongan un riesgo significativo para la seguridad nacional. Los estudios realizados por OpenAI, Anthropic y otras empresas durante el año pasado demostraron que la inteligencia artificial no era significativamente más peligrosa que los motores de búsqueda. Daniela Amodei, cofundadora de Anthropic y presidenta de la empresa, dijo que su última tecnología de inteligencia artificial no supondría un riesgo importante si sus diseños fueran robados o compartidos libremente con otros.

“Si fuera propiedad de otra persona, ¿podría ser muy perjudicial para gran parte de la sociedad? Nuestra respuesta es: ‘No, probablemente no’”, dijo a The Times el mes pasado. “¿Podría acelerar algo para un mal actor en el futuro? Tal vez. Es realmente especulativo”.

Aun así, los investigadores y ejecutivos tecnológicos se han preocupado durante mucho tiempo de que la IA pueda algún día impulsar… La creación de nuevas armas biológicas o ayudar a entrar en los sistemas informáticos del gobierno. Algunos Incluso creo que podría destruir a la humanidad..

Varias empresas, entre ellas OpenAI y Anthropic, ya están poniendo coto a sus operaciones técnicas. OpenAI creó recientemente un Comité de Seguridad y Protección para estudiar cómo debería gestionar los riesgos que plantean las tecnologías futuras. El comité incluye a Paul Nakasone, un exgeneral del ejército que dirigió la Agencia de Seguridad Nacional y el Comando Cibernético. También ha sido nombrado miembro de la junta directiva de OpenAI.

“Comenzamos a invertir en seguridad años antes de que existiera ChatGPT”, afirmó Knight. “Estamos en un proceso no solo para comprender los riesgos y anticiparnos a ellos, sino también para profundizar nuestra resiliencia”.

Funcionarios federales y legisladores estatales También están presionando para que los gobiernos regulen la posibilidad de que las empresas publiquen ciertas tecnologías de inteligencia artificial y las multen con millones de dólares si sus tecnologías causan daños. Pero los expertos dicen que esos peligros todavía están a años o incluso décadas de distancia.

Las empresas chinas están construyendo sus propios sistemas que son casi tan potentes como los principales sistemas estadounidenses. Según algunas métricas, China eclipsó a Estados Unidos como el mayor productor de talento en IA, ya que el país genera Casi la mitad de los principales investigadores de IA del mundo.

“No es una locura pensar que China pronto superará a Estados Unidos”, afirmó Clément Delangue, director ejecutivo de Hugging Face, una empresa que alberga muchos de los proyectos de inteligencia artificial de código abierto del mundo.

Algunos investigadores y líderes de seguridad nacional argumentan que los algoritmos matemáticos en el corazón de los sistemas de IA actuales, si bien no son peligrosos hoy, podrían volverse peligrosos y piden controles más estrictos en los laboratorios de IA.

“Incluso si los peores escenarios tienen una probabilidad relativamente baja, si tienen un alto impacto, entonces es nuestra responsabilidad tomarlos en serio”, dijo Susan Rice, ex asesora de política interna del presidente Biden y ex asesora de seguridad nacional del presidente Barack Obama, durante un evento en Silicon Valley el mes pasado. “No creo que sea ciencia ficción, como a muchos les gusta afirmar”.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *