septiembre 25, 2024

Un hacker robó secretos de OpenAI, lo que aumenta el temor de que China también pueda hacerlo

SAN FRANCISCO >> A principios del año pasado, un hacker obtuvo acceso a los sistemas de mensajería interna de OpenAI, el fabricante de ChatGPT, y robó detalles sobre el diseño de las tecnologías de inteligencia artificial de la compañía.

El pirata informático extrajo detalles de las discusiones en un foro en línea donde los empleados hablaban sobre las últimas tecnologías de OpenAI, según dos personas familiarizadas con el incidente, pero no entró en los sistemas donde la empresa aloja y construye su IA.

Los ejecutivos de OpenAI revelaron el incidente a los empleados durante una reunión general en las oficinas de la empresa en San Francisco en abril de 2023 e informaron a su junta directiva, según las dos personas, que discutieron información confidencial sobre la empresa bajo condición de anonimato.

Pero los ejecutivos decidieron no compartir la noticia públicamente porque no se había robado información sobre clientes o socios, dijeron las dos personas. Los ejecutivos no consideraron que el incidente fuera una amenaza para la seguridad nacional porque creían que el pirata informático era un particular sin vínculos conocidos con un gobierno extranjero. La empresa no informó al FBI ni a ninguna otra persona de las fuerzas del orden.

Para algunos empleados de OpenAI, la noticia generó temores de que adversarios extranjeros como China pudieran robar tecnología de inteligencia artificial que, si bien ahora es principalmente una herramienta de trabajo e investigación, podría eventualmente poner en peligro la seguridad nacional de Estados Unidos. También generó preguntas sobre la seriedad con la que OpenAI trataba la seguridad y expuso fracturas dentro de la empresa sobre los riesgos de la inteligencia artificial.

Después de la violación, Leopold Aschenbrenner, un gerente del programa técnico de OpenAI enfocado en garantizar que las futuras tecnologías de IA no causen daños graves, envió una nota a la junta directiva de OpenAI, argumentando que la compañía no estaba haciendo lo suficiente para evitar que el gobierno chino y otros adversarios extranjeros robaran sus secretos.

Aschenbrenner dijo que OpenAI lo había despedido esta primavera por filtrar otra información fuera de la empresa y argumentó que su despido había tenido motivaciones políticas. Aludió a la filtración en un podcast reciente, pero los detalles del incidente no se habían informado anteriormente. Dijo que la seguridad de OpenAI no era lo suficientemente fuerte como para proteger contra el robo de secretos clave si actores extranjeros se infiltraran en la empresa.

“Apreciamos las inquietudes que Leopold planteó mientras estaba en OpenAI, y esto no llevó a su despido”, dijo una portavoz de OpenAI, Liz Bourgeois. En referencia a los esfuerzos de la empresa por construir una inteligencia artificial general, una máquina que puede hacer todo lo que el cerebro humano puede hacer, agregó: “Si bien compartimos su compromiso de construir una IAG segura, no estamos de acuerdo con muchas de las afirmaciones que ha hecho desde entonces sobre nuestro trabajo. Esto incluye sus caracterizaciones de nuestra seguridad, en particular este incidente, que abordamos y compartimos con nuestra junta antes de que se uniera a la empresa”.

Los temores de que un ataque informático a una empresa tecnológica estadounidense pudiera tener vínculos con China no son descabellados. El mes pasado, Brad Smith, presidente de Microsoft, testificó en el Capitolio sobre cómo piratas informáticos chinos utilizaron los sistemas del gigante tecnológico para lanzar un ataque de amplio alcance contra las redes del gobierno federal.

Sin embargo, según las leyes federales y de California, OpenAI no puede impedir que las personas trabajen en la empresa debido a su nacionalidad, y los investigadores de políticas han dicho que excluir a los talentos extranjeros de los proyectos estadounidenses podría obstaculizar significativamente el progreso de la IA en Estados Unidos.

“Necesitamos que las mentes más brillantes y mejores trabajen en esta tecnología”, dijo Matt Knight, director de seguridad de OpenAI, a The New York Times en una entrevista. “Tiene algunos riesgos y tenemos que descubrirlos”.

(The Times ha demandado a OpenAI y a su socio, Microsoft, alegando violación de derechos de autor de contenido noticioso relacionado con sistemas de IA).

OpenAI no es la única empresa que construye sistemas cada vez más potentes utilizando tecnología de inteligencia artificial que mejora rápidamente. Algunas de ellas (la más notable es Meta, propietaria de Facebook e Instagram) comparten libremente sus diseños con el resto del mundo como software de código abierto. Creen que los peligros que plantean las tecnologías de inteligencia artificial actuales son escasos y que compartir el código permite a los ingenieros e investigadores de todo el sector identificar y solucionar los problemas.

Los sistemas de inteligencia artificial actuales pueden ayudar a difundir desinformación en línea, incluidos textos, imágenes fijas y, cada vez más, videos. También están empezando a eliminar algunos puestos de trabajo.

Empresas como OpenAI y sus competidores Anthropic y Google agregan restricciones a sus aplicaciones de IA antes de ofrecerlas a individuos y empresas, con la esperanza de evitar que las personas utilicen las aplicaciones para difundir desinformación o causar otros problemas.

Pero no hay muchas pruebas de que las tecnologías de inteligencia artificial actuales supongan un riesgo significativo para la seguridad nacional. Los estudios realizados por OpenAI, Anthropic y otras empresas durante el año pasado demostraron que la inteligencia artificial no era significativamente más peligrosa que los motores de búsqueda. Daniela Amodei, cofundadora de Anthropic y presidenta de la empresa, dijo que su última tecnología de inteligencia artificial no supondría un riesgo importante si sus diseños fueran robados o compartidos libremente con otros.

“Si fuera propiedad de otra persona, ¿podría ser muy perjudicial para gran parte de la sociedad? Nuestra respuesta es: ‘No, probablemente no’”, dijo al Times el mes pasado. “¿Podría acelerar algo para un mal actor en el futuro? Tal vez. Es realmente especulativo”.

Aun así, los investigadores y ejecutivos de tecnología llevan mucho tiempo preocupados por la posibilidad de que algún día la IA pueda impulsar la creación de nuevas armas biológicas o ayudar a infiltrarse en los sistemas informáticos del gobierno. Algunos incluso creen que podría destruir a la humanidad.

Varias empresas, entre ellas OpenAI y Anthropic, ya están poniendo coto a sus operaciones técnicas. OpenAI creó recientemente un Comité de Seguridad y Protección para estudiar cómo debería gestionar los riesgos que plantean las tecnologías futuras. El comité incluye a Paul Nakasone, un exgeneral del ejército que dirigió la Agencia de Seguridad Nacional y el Comando Cibernético. También ha sido nombrado miembro de la junta directiva de OpenAI.

“Comenzamos a invertir en seguridad años antes de que apareciera ChatGPT”, afirmó Knight. “Estamos en un proceso no solo para comprender los riesgos y anticiparnos a ellos, sino también para profundizar nuestra resiliencia”.

Los funcionarios federales y los legisladores estatales también están presionando para que se establezcan regulaciones gubernamentales que prohíban a las empresas lanzar ciertas tecnologías de inteligencia artificial y las multen con millones de dólares si sus tecnologías causan daños. Pero los expertos dicen que estos peligros aún están a años o incluso décadas de distancia.

Las empresas chinas están construyendo sus propios sistemas que son casi tan potentes como los principales sistemas estadounidenses. Según algunos indicadores, China eclipsó a Estados Unidos como el mayor productor de talento en inteligencia artificial, ya que el país genera casi la mitad de los mejores investigadores en inteligencia artificial del mundo.

“No es una locura pensar que China pronto superará a Estados Unidos”, afirmó Clement Delangue, director ejecutivo de Hugging Face, una empresa que alberga muchos de los proyectos de inteligencia artificial de código abierto del mundo.

Algunos investigadores y líderes de seguridad nacional argumentan que los algoritmos matemáticos en el corazón de los sistemas de IA actuales, si bien no son peligrosos hoy, podrían volverse peligrosos y piden controles más estrictos en los laboratorios de IA.

“Incluso si los peores escenarios tienen una probabilidad relativamente baja, si tienen un alto impacto, entonces es nuestra responsabilidad tomarlos en serio”, dijo Susan Rice, ex asesora de política interna del presidente Joe Biden y ex asesora de seguridad nacional del presidente Barack Obama, durante un evento en Silicon Valley el mes pasado. “No creo que sea ciencia ficción, como a muchos les gusta afirmar”.

———

Este artículo apareció originalmente en The New York Times.

(Esta es una historia sin editar y generada automáticamente a partir de un servicio de noticias sindicado. Radio VIAL Es posible que el personal no haya cambiado ni editado el texto del contenido).