OpenAI quiso prohibir el uso militar de su IA, pero el Pentágono la utilizó a través de Microsoft

El CEO de OpenAI, Sam Altman, sigue en el ojo del huracán luego de que su empresa firmara esta semana un acuerdo con el ejército de Estados Unidos. Los empleados de OpenAI criticaron la medida, que se produjo tras el fracaso del contrato de aproximadamente 200 millones de dólares de Anthropic con el Pentágono, y pidieron a Altman que divulgara más información sobre el acuerdo. En una publicación en redes sociales, Altman admitió que la situación fue “mal manejada”.

Aunque este incidente se ha convertido en una noticia importante, puede que solo sea el último y más público ejemplo de OpenAI creando políticas vagas sobre cómo el ejército estadounidense puede acceder a su IA.

En 2023, OpenAI prohibía al ejército acceder a sus modelos de IA

Pero algunos empleados de la compañía descubrieron que el Pentágono ya había empezado a experimentar con Azure OpenAI, una versión de los modelos de OpenAI ofrecida por Microsoft, según dos fuentes familiarizadas con el asunto. En aquel momento, Microsoft llevaba décadas contratando con el Departamento de Defensa. También era el mayor inversionista de OpenAI y tenía una amplia licencia para comercializar la tecnología de la startup.

Ese mismo año, los empleados de OpenAI vieron a funcionarios del Pentágono paseando por las oficinas de la empresa en San Francisco, dijeron las fuentes. Hablaron bajo condición de anonimato, ya que no están autorizados a comentar asuntos de empresas privadas.

Algunos empleados de OpenAI desconfiaban de asociarse con el Pentágono, mientras que otros simplemente estaban confusos sobre lo que significaban las políticas de uso de OpenAI. ¿La política se aplicaba a Microsoft? Si bien las fuentes declaran a WIRED que no estaba claro para la mayoría de los empleados en ese momento, los portavoces de OpenAI y Microsoft refieren que los productos Azure OpenAI no están, y no estaban, sujetos a las políticas de OpenAI.

“Microsoft tiene un producto llamado Azure OpenAI Service que se puso a disposición del Gobierno de los Estados Unidos en 2023 y está sujeto a los términos de servicio de Microsoft”, afirmó el portavoz Frank Shaw en una declaración a WIRED. Microsoft declinó comentar específicamente cuándo puso Azure OpenAI a disposición del Pentágono, pero señala que el servicio no fue aprobado para cargas de trabajo gubernamentales “de alto secreto” hasta 2025.

“La IA ya está desempeñando un papel significativo en la seguridad nacional y creemos que es importante tener un asiento en la mesa para ayudar a garantizar que se despliegue de manera segura y responsable”, indicó la portavoz de OpenAI, Liz Bourgeois, en un comunicado. Añadió: “Hemos sido transparentes con nuestros empleados a medida que hemos abordado este trabajo, proporcionando actualizaciones periódicas y canales dedicados donde los equipos pueden hacer preguntas y participar directamente con nuestro equipo de seguridad nacional”.

Las políticas de OpenAI

En enero de 2024, OpenAI actualizó sus políticas para eliminar la prohibición general de uso militar. Varios empleados de OpenAI se enteraron de la actualización de la política a través de un artículo en The Intercept, señalan las fuentes. Más tarde, los directivos de la empresa abordaron el cambio en una reunión de todos los empleados y explicaron que la empresa actuaría con cautela en este ámbito en el futuro.

En diciembre de 2024, OpenAI anunció una asociación con Anduril para desarrollar y desplegar sistemas de IA para “misiones de seguridad nacional”. Antes del anuncio, la empresa de Altman comunicó a sus empleados que la asociación tenía un alcance limitado y que solo se ocuparía de cargas de trabajo no clasificadas, según las mismas fuentes. Esto contrasta con el acuerdo que Anthropic había firmado con Palantir, en virtud del cual la IA de Anthropic se utilizaría para tareas militares clasificadas.

Palantir se puso en contacto con OpenAI en otoño de 2024 para tratar la participación en su programa “FedStart”, según confirmó un portavoz de OpenAI a WIRED. Al final, la empresa lo rechazó y dijo a sus empleados que habría sido demasiado arriesgado, según cuentan a WIRED dos fuentes familiarizadas con el asunto. Sin embargo, OpenAI trabaja con Palantir de otras maneras.

Casi al mismo tiempo que se anunció el acuerdo con Anduril, docenas de empleados de OpenAI se unieron a un canal público de Slack para expresar sus preocupaciones sobre las colaboraciones militares de la compañía, según fuentes y un portavoz confirmó. Algunos creían que los modelos de la compañía eran poco fiables para procesar la información de la tarjeta de crédito de un usuario, y mucho menos para ayudar a los estadounidenses en el campo de batalla.

No todos compartían sus preocupaciones. Otros empleados consideraron que la asociación con Anduril demostraba que la empresa gestionaría sus asociaciones militares de forma responsable. “El enfoque de OpenAI hasta ahora ha sido ‘medir dos veces, cortar una’ cuando se trata de despliegues de amplio alcance. Los empleados están comprometidos con la cuestión de qué enfoque de la seguridad nacional está en consonancia con la misión”, me dice un investigador actual de OpenAI.

El último acuerdo de OpenAI con el Pentágono dividió a los empleados

Aunque Altman dijo públicamente que apoyaba a Anthropic en no permitir que su IA se utilizara para la vigilancia legal masiva o el desarrollo de armas autónomas, el acuerdo de la compañía parecía dejar espacio para esas mismas actividades, según expertos legales externos.

“Los grandes perdedores de todo esto son los civiles de las zonas en conflicto. Nuestra capacidad para comprender los efectos de la IA militar en la guerra se ve y se verá gravemente obstaculizada por las capas de opacidad causadas por el diseño técnico y la política. Son cajas negras hasta el final”, afirmó Sarah Shoker, exdirectora del equipo de geopolítica de OpenAI, en un artículo publicado en Substack la semana pasada.

Charlie Bullock, investigador principal del Institute for Law and AI, refirió a WIRED que los comentarios públicos de OpenAI sugieren que el Pentágono podría haber tenido permiso para participar en formas de vigilancia que técnicamente se consideran legales, como la compra de datos de usuarios estadounidenses a terceras empresas y su análisis con IA. OpenAI modificó posteriormente los términos de su acuerdo para abordar esta preocupación específica, aunque Bullock señala que sin ver los términos completos del acuerdo, el público esencialmente tiene que tomar OpenAI en su palabra.

“Durante el fin de semana quedó claro que el lenguaje original del acuerdo OpenAI/DoW dejaba preguntas legítimas sin respuesta, especialmente en torno a algunas formas novedosas en que la IA podría potencialmente permitir la vigilancia legal”, dijo Noam Brown, investigador de OpenAI, en un post en las redes sociales. Brown continuó diciendo que ahora planea involucrarse “más personalmente en la política de OpenAI”.

Poco más de dos años después de que OpenAI eliminara su prohibición general de uso militar, la empresa parece haber adoptado las asociaciones de defensa. El martes, en una reunión de todos los empleados, Altman dijo que la empresa no decide lo que el Departamento de Defensa hace con su software de IA. Altman también dijo que está interesado en vender los modelos de inteligencia artificial de la empresa a la OTAN. (W)

Related posts

Tu viejo smartphone puede volver a la vida

La Estafa del Espía Digital

Hay chats privados de IA en abierto por internet: los crecientes riesgos para la privacidad de los principales chatbots