Anthropic demanda al Departamento de Defensa de EE UU por catalogarla como un proveedor de servicios riesgoso

OpenAI afirmó que su acuerdo incluía medidas contractuales y técnicas para garantizar que su tecnología no fuera utilizada para la vigilancia doméstica masiva ni para dirigir sistemas de armas autónomas. Añadió que se oponía a la acción contra Anthropic y que no entendía por qué su rival no podía llegar al mismo acuerdo con el gobierno.
Prioridad militar
Hegseth ha priorizado la adopción militar de tecnologías de IA, con carteles vistos recientemente en el Pentágono que lo muestran señalando con el dedo con la leyenda «Quiero que uses IA». La disputa con Anthropic surgió en enero después de que Hegseth ordenara a varios proveedores de IA que aceptaran que el departamento era libre de usar sus tecnologías para cualquier propósito legal.
Anthropic, la única empresa que actualmente ofrece chatbots de IA y herramientas de análisis para el ejército, contraatacó argumentando que sus tecnologías aún no tienen el desarrollo suficiente como para ser utilizadas en la vigilancia masiva de estadounidenses a nivel nacional ni en armas totalmente autónomas. Hegseth ha afirmado que Anthropic quiere tener poder de veto sobre sentencias que deberían quedar en manos del Departamento de Defensa.
Históricamente, las designaciones de riesgo en la cadena de suministro se han reservado para mantener las tecnologías chinas fuera de los sistemas militares estadounidenses y así preservar la seguridad operativa. Anthropic advirtió recientemente que usar esa etiqueta en una empresa estadounidense ha sentado un precedente peligroso.
La semana pasada, una coalición de grupos de la industria tecnológica, entre ellos TechNet, Business Software Alliance y la Asociación de la Industria de la Información del Software, instó a la administración Trump a reconsiderar la designación, argumentando en una carta que señalar a una empresa estadounidense como adversario en lugar de como activo tendría un efecto disuasorio sobre la innovación en Estados Unidos. Los grupos representan a importantes empresas tecnológicas, como Apple, Google, Nvidia, Microsoft, Meta, IBM, Salesforce y Oracle.
Otra coalición de tecnólogos de alto perfil y ex asesores de seguridad nacional envió una carta similar a los miembros del Comité de las Fuerzas Armadas del Senado, advirtiendo que “el uso de esta autoridad contra una empresa estadounidense se desvía profundamente de su propósito original”. La carta exigía que el Congreso estableciera políticas claras sobre el uso de la IA para la vigilancia nacional y los sistemas de armas letales autónomas.
Entre los firmantes se encontraban el ex director de la CIA Michael Hayden, el profesor de la Facultad de Derecho de Harvard Lawrence Lessig, el ex socio de Andreessen Horowitz John O’Farrell, el ex subsecretario del Ejército Brad Carson y varios almirantes militares retirados o ex almirantes.
Los oficiales estadounidenses utilizan Claude principalmente a través de herramientas independientes que lo incorporan, como el Sistema Inteligente Maven de Palantir, según informaron a WIRED personas familiarizadas con el tema. Lo utilizan para tareas básicas como la redacción de documentos y análisis más complejos, como la planificación de ataques, añadió la fuente.
Si se mantiene la designación de riesgo para la cadena de suministro, Palantir y otros contratistas militares tendrían que sustituir a Claude por alternativas, lo que podría suponer un mayor coste para el gobierno. Varias startups de inteligencia artificial especializadas en defensa, como Vannevar Labs, han presentado recientemente sus modelos como sustitutos eficaces. Palantir no respondió a una solicitud de comentarios.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/anthropic-demanda-al-departamento-de-defensa-de-ee-uu




