InicioMundoTribunal de apelaciones rechaza solicitud de Anthropic contra el Pentá

Tribunal de apelaciones rechaza solicitud de Anthropic contra el Pentá

Un tribunal federal de apelaciones rechazó la solicitud de la empresa de inteligencia artificial Anthropic para impedir que el Pentágono mantuviera restricciones en su contra, en el más reciente capítulo de la disputa legal con la administración del presidente Donald Trump sobre el uso de tecnología de inteligencia artificial en defensa.

El Tribunal de Apelaciones de Estados Unidos en Washington, D.C., se negó el miércoles a impedir que el Pentágono incluyera en la lista negra al laboratorio de inteligencia artificial, mientras continúa recopilando pruebas sobre el caso.

Controversia sobre el uso de tecnología militar

La decisión se produce en medio de una controversia sobre cómo el Departamento de Defensa podría utilizar el chatbot Claude —desarrollado por Anthropic— en armas totalmente autónomas y en posibles operaciones de vigilancia dentro de Estados Unidos.

De acuerdo con AP, el revés judicial en Washington se produjo después de que la empresa ya hubiera obtenido un fallo favorable en otro caso relacionado en un tribunal federal de San Francisco.

En esa ocasión, la jueza federal Rita Lin ordenó a la administración Trump retirar una etiqueta que calificaba a la compañía como un riesgo para la seguridad nacional.

Demandas y críticas al gobierno

Anthropic presentó dos demandas separadas el mes pasado, alegando que la administración estaba llevando a cabo una “campaña ilegal de represalias” tras sus intentos de imponer límites al uso de su tecnología de inteligencia artificial.

Por su parte, funcionarios del gobierno han criticado duramente a la empresa, acusándola de tener inclinaciones políticas liberales y de intentar influir en la política militar estadounidense.

Según documentos judiciales citados por AP, la decisión favorable en San Francisco obligó al gobierno a eliminar designaciones que restringían el uso de los productos de la empresa por empleados y contratistas federales, permitiendo que continuaran utilizando Claude y otros chatbots.

Sin embargo, el tribunal de apelaciones en Washington no compartió plenamente ese criterio. Aunque reconoció que la empresa podría sufrir daños irreparables si se la considera un riesgo para la cadena de suministro, determinó que «no está del todo claro el alcance exacto del daño financiero que sufriría Anthropic».

El proceso judicial continuará en las próximas semanas. Está previsto que se presenten nuevas pruebas ante el tribunal de apelaciones durante una audiencia programada para el 19 de mayo.

En un comunicado citado por AP, Anthropic expresó confianza en que los tribunales finalmente le darán la razón.

«Agradecemos que el tribunal haya reconocido la necesidad de resolver rápidamente estos problemas y mantenemos la confianza en que, en última instancia, los tribunales coincidirán en que estas designaciones de la cadena de suministro eran ilegales», indicó la empresa.

Por su parte, Matt Schruers, director ejecutivo de la asociación tecnológica Computer & Communications Industry Association, advirtió que los fallos contradictorios podrían generar incertidumbre en el sector tecnológico.

“Las acciones del Pentágono y el fallo del Tribunal de Apelaciones del Circuito de DC generan una considerable incertidumbre empresarial en un momento en que las empresas estadounidenses compiten con sus homólogas globales para liderar en inteligencia artificial”, afirmó Schruers.

Fuente: www.diariolibre.com

RELATED ARTICLES
- Advertisment -
Google search engine
Google search engine
Google search engine

Most Popular