La jueza suspende cautelarmente el veto de Trump a la startup de IA Anthropic por "arbitrario y caprichoso"
La Casa Blanca catalogó a la tecnológica, desarrolladora del chatbot Claude, como un "riesgo para la cadena de suministro" por negarse a levantar algunas sus medidas de seguridad para el uso de su IA en Irán
Qué es Anthropic, la startup que planta cara a Trump y su “estilo dictador” por el uso de IA en la guerra
Una jueza federal en California ha fallado en la madrugada de este viernes a favor de Anthropic, que demandó a la Administración del presidente estadounidense, Donald Trump, por designarla como riesgo nacional en la cadena de suministro después de que la tecnológica se negara a ceder su inteligencia artificial (IA) al Departamento de Guerra para cualquier uso legal.
La jueza Rita Lin ha bloqueado temporalmente la orden dada por la Casa Blanca el mes pasado mientras se desarrolla la querella legal. La startup alega que la orden de la Casa Blanca para que las agencias gubernamentales dejaran de utilizar su tecnología viola la Primera Enmienda de la Constitución de EEUU.
En la acción legal, interpuesta en el Tribunal del Distrito Norte de California, la compañía afirmó que Anthropic se fundó sobre la convicción de que los servicios de IA deben usarse para maximizar “los resultados positivos para la humanidad” y ser “seguros y responsables”. “Anthropic presenta esta demanda porque el Gobierno federal ha tomado represalias contra la empresa por expresar ese principio”, rezaba la demanda de la tecnológica, creadora del asistente de IA Claude.
La jueza ha suspendido la ejecución de la orden de Trump por un plazo de una semana, tras determinar que el Ejecutivo excedió su autoridad y la declaración de Anthropic como un “riesgo para la cadena de suministro” es “probablemente contraria a la ley, además de arbitraria y caprichosa”.
El veto de Trump convirtió a la empresa en la primera compañía estadounidense en ser designada como riesgo nacional, una calificación que, por lo general, se limita a adversarios extranjeros.
El pulso entre Anthropic y el Gobierno Trump se ha centrado en las condiciones que la firma de IA ponía para limitar el uso de Claude y recibir garantías de que no se usará para espiar a estadounidenses o para el uso de armas completamente autónomas. En su fallo, de 43 páginas, Lin afirma que la medida cautelar emitida hoy “no exige” al Ejecutivo estadounidense a continuar usando a Claude en sus sistemas de seguridad nacional. Se espera que el Gobierno Trump apele la decisión.
