La startup californiana antrópico demandó el lunes a la administración del presidente Donald Trump, alegando que la penalizó por negarse a autorizar el uso militar ilimitado de sus modelos de inteligencia artificial Claude.
MIRAR: Anthropic dice que no dará al ejército estadounidense el uso incondicional de su IA
La semana pasada, el Departamento de Defensa de Estados Unidos designó a Anthropic como un “riesgo” para la cadena de suministro de seguridad nacional, después de que la compañía rechazara el uso de su tecnología para vigilancia masiva o fines bélicos.
En la demanda de 48 páginas, presentada ante un tribunal federal de San Francisco, Anthropic solicita que dicha designación sea revertida y declarada ilegal.
La empresa sostiene que se fundó con la creencia de que su IA debería «utilizarse de una manera que maximice los resultados positivos para la humanidad» y debe “ser el más seguro y el más responsable”.
“Anthropic presenta esta demanda porque el gobierno federal ha tomado represalias por expresar ese principio”, añade en su escrito.
Anthropic es la primera empresa estadounidense clasificada como “riesgosa” por el gobierno federal, una consideración reservada a entidades de países rivales, como el gigante tecnológico chino Huawei.
La designación requiere que los proveedores y contratistas de defensa certifiquen que no utilizan modelos Anthropic en su trabajo con el Pentágono.
«Las consecuencias de este caso son enormes», ya que el gobierno «busca destruir el valor económico creado por una de las empresas privadas de más rápido crecimiento del mundo», afirma la demanda.
La disputa estalló después de que Anthropic enojara al jefe del Pentágono, Pete Hegseth, al insistir en que su tecnología no debería utilizarse para la vigilancia de ciudadanos ni para sistemas de armas totalmente autónomos.
Posteriormente, Trump ordenó a todas las agencias federales que dejaran de utilizar la tecnología de Anthropic.
Hegseth ordenó que ningún contratista, proveedor o socio militar “podrá realizar actividad comercial alguna con Anthropic”. También concedió un período de transición de seis meses para el propio Pentágono.
Más de treinta ingenieros de inteligencia artificial de OpenAI y Google, incluido el científico jefe de Google, Jeff Dean, expresaron su apoyo a Antrophic en un escrito presentado ante el tribunal el lunes.
Indicaron que expresaban sus opiniones como profesionales que desarrollan, capacitan o estudian IA y que no representaban a sus empresas. Yo, e insté al tribunal a fallar a favor de Anthropic.
«Estamos unidos en la convicción de que los sistemas de inteligencia artificial de vanguardia de hoy presentan riesgos cuando se usan para permitir la vigilancia masiva doméstica o en la operación de sistemas autónomos de armas letales sin supervisión humana, y que esos riesgos requieren algún tipo de límite, ya sea con medidas técnicas de seguridad o restricciones de uso», señalaron.
En su comunicado también señalaron que “La designación de Anthropic por parte del gobierno como un riesgo para la cadena de suministro fue un uso inapropiado y arbitrario del poder que tiene graves repercusiones para nuestra industria.”.
La disputa entre el Pentágono y Anthropic estalló días antes de la ofensiva militar estadounidense contra Irán.
Claude es el modelo de IA de vanguardia más utilizado por el Pentágono y el único modelo de su tipo que actualmente opera en sistemas clasificados del Departamento de Defensa.
En su demanda, Anthropic afirma que las medidas adoptadas en su contra Exceden la autoridad legal del Pentágono y violan los derechos constitucionales.
“La Constitución no permite que el gobierno utilice su enorme poder para castigar a una empresa por su discurso”, afirma el texto.
Fundada en 2021 por los hermanos Darío y Daniela Amodei, ambos ex empleados de OpenAI, creadora de ChatGPT, Anthropic se ha posicionado en la carrera de la IA como una alternativa centrada en la seguridad.