Servicio de noticias
Producido externamente por una organización que confiamos cumple con las normas periodísticas.

Ordenan a agencias federales de Estados Unidos a dejar de usar la tecnología IA de Anthropic

Donald Trump dio la ordenen medio de una creciente disputa sobre la seguridad de la inteligencia artificial con el Pentágono

28 de febrero de 2026 - 10:42 PM

Updated At

Actualizado el 28 de febrero de 2026 - 10:42 PM

Páginas del sitio web de Anthropic y el logotipo de la empresa se muestran en una pantalla de computadora en Nueva York el jueves 26 de febrero de 2026. (Patrick Sison)

Washington- La administración Trump ordenó el viernes a todas las agencias estadounidenses que dejen de usar la tecnología de inteligencia artificial de Anthropic e impuso otras sanciones importantes, culminando un enfrentamiento inusualmente público entre el gobierno y la compañía sobre la seguridad de la IA.

El presidente Donald Trump, el secretario de Defensa Pete Hegseth y otros funcionarios tomaron las redes sociales para reprender a Anthropic por no permitir a los militares el uso sin restricciones de su tecnología de IA antes de la fecha límite del viernes, acusándola de poner en peligro la seguridad nacional después de que el CEO Dario Amodei se negara a dar marcha atrás ante la preocupación de que los productos de la compañía pudieran usarse de manera que violaran sus salvaguardas.

“¡No lo necesitamos, no lo queremos y no volveremos a hacer negocios con ellos!”. , dijo Trump en las redes sociales.

Hegseth también consideró a la empresa un “riesgo para la cadena de suministro”, una designación que se suele aplicar a los adversarios extranjeros y que podría hacer descarrilar las asociaciones críticas de la empresa con otras empresas.

En un comunicado emitido el viernes por la noche, Anthropic afirmó que impugnaría lo que calificó de acción sin precedentes y jurídicamente poco sólida “nunca antes aplicada públicamente a una empresa estadounidense.”

Anthropic había dicho que buscaba garantías estrictas del Pentágono de que su chatbot de IA Claude no se utilizaría para la vigilancia masiva de estadounidenses ni en armas totalmente autónomas. El Pentágono dijo que no estaba interesado en tales usos y que solo desplegaría la tecnología de forma legal, pero también insistió en un acceso sin limitaciones.

“Ningún tipo de intimidación o castigo por parte del Departamento de Guerra cambiará nuestra posición sobre la vigilancia doméstica masiva o las armas totalmente autónomas”, dijo la compañía. “Impugnaremos ante los tribunales cualquier designación de riesgo para la cadena de suministro”.

El intento del gobierno de imponer su dominio sobre la toma de decisiones interna de la empresa se produce en medio de un enfrentamiento más amplio sobre el papel de la IA en la seguridad nacional y la preocupación por cómo podrían utilizarse máquinas cada vez más capaces en situaciones de alto riesgo que impliquen el uso de fuerza letal, información sensible o vigilancia gubernamental.

ARCHIVO - Dario Amodei, consejero delegado y cofundador de Anthropic, asiste a la reunión anual del Foro Económico Mundial en Davos, Suiza, el 23 de enero de 2025. (AP Photo/Markus Schreiber, Archivo)
ARCHIVO - Dario Amodei, consejero delegado y cofundador de Anthropic, asiste a la reunión anual del Foro Económico Mundial en Davos, Suiza, el 23 de enero de 2025. (AP Photo/Markus Schreiber, Archivo) (Markus Schreiber)

Trump y otros arremeten contra Anthropic

Trump dijo que Anthropic cometió un error al intentar presionar al Pentágono. Escribió en Truth Social que la mayoría de las agencias deben dejar de usar inmediatamente la IA de Anthropic, pero dio al Pentágono un plazo de seis meses para eliminar gradualmente la tecnología que ya está integrada en plataformas militares.

“¡Los Estados Unidos de América nunca permitirán que una empresa de izquierda radical y despierta dicte cómo nuestro gran ejército lucha y gana guerras!”, escribió en mayúsculas.

Después de que meses de conversaciones privadas estallaran en debate público esta semana, Anthropic dijo el jueves que el nuevo lenguaje contractual del gobierno permitiría “ignorar las salvaguardias a voluntad”. Amodei afirmó que su empresa “no puede en conciencia acceder” a las exigencias.

Anthropic puede permitirse perder el contrato. Pero las acciones del gobierno planteaban riesgos más amplios en el punto álgido del meteórico ascenso de la empresa, que pasó de ser un laboratorio de investigación informática poco conocido en San Francisco a una de las startups más valiosas del mundo.

La decisión del presidente vino precedida de horas en las que altos cargos nombrados por Trump en el Pentágono y el Departamento de Estado se lanzaron a las redes sociales para criticar a Anthropic, pero sus quejas planteaban contradicciones.

El alto portavoz del Pentágono, Sean Parnell, declaró el jueves en las redes sociales que la negativa de Anthropic a acceder a las demandas del ejército estaba “poniendo en peligro operaciones militares críticas y poniendo potencialmente en riesgo a nuestros combatientes”. Hegseth dijo el viernes que el Pentágono “debe tener acceso completo y sin restricciones a los modelos de Anthropic para cualquier propósito lícito en defensa de la República”.

El mensaje de Trump en las redes sociales también ordenaba a la empresa que “más vale que se ponga las pilas y sea útil” durante un periodo de retirada progresiva de seis meses o se producirían “importantes consecuencias civiles y penales.”

Sin embargo, la decisión de Hegseth de designar a Anthropic como riesgo para la cadena de suministro utiliza una herramienta administrativa concebida para empresas propiedad de adversarios de Estados Unidos, con el fin de impedirles vender productos perjudiciales para los intereses estadounidenses.

El senador por Virginia Mark Warner, principal demócrata en el Comité de Inteligencia del Senado, señaló que esta dinámica, “combinada con una retórica incendiaria que ataca a esa empresa, suscita serias dudas sobre si las decisiones de seguridad nacional están guiadas por un análisis cuidadoso o por consideraciones políticas.”

ARCHIVO - El secretario de Defensa, Pete Hegseth, en el exterior del Pentágono durante una ceremonia de bienvenida al ministro de Defensa japonés en el Pentágono en Washington, el 15 de enero de 2026. (AP Photo/Kevin Wolf, Archivo)
ARCHIVO - El secretario de Defensa, Pete Hegseth, en el exterior del Pentágono durante una ceremonia de bienvenida al ministro de Defensa japonés en el Pentágono en Washington, el 15 de enero de 2026. (AP Photo/Kevin Wolf, Archivo) (Kevin Wolf)

Una disputa sacude Silicon Valley

La disputa dejó atónitos a los desarrolladores de IA en Silicon Valley, donde capitalistas de riesgo, destacados científicos especializados en IA y un gran número de trabajadores de los principales rivales de Anthropic -OpenAI y Google- manifestaron su apoyo a la postura de Amodei en cartas abiertas y otros foros.

Es probable que la medida beneficie al chatbot competidor de Elon Musk, Grok, al que el Pentágono planea dar acceso a redes militares clasificadas, y podría servir de advertencia a otros dos competidores, Google y OpenAI, que tienen contratos aún en ciernes para suministrar sus herramientas de IA al ejército.

Musk se puso del lado de la administración de Trump, diciendo en su plataforma de medios sociales X que “Anthropic odia la civilización occidental.”

Pero uno de los rivales más acérrimos de Amodei, el CEO de OpenAI, Sam Altman, se puso del lado de Anthropic y cuestionó el movimiento “amenazante” del Pentágono en una entrevista en CNBC y una carta a los empleados que decía que OpenAI compartía las mismas líneas rojas. Amodei trabajó una vez para OpenAI antes de que él y otros líderes de OpenAI renunciaran para formar Anthropic en 2021.

“A pesar de todas las diferencias que tengo con Anthropic, confío en ellos como empresa y creo que realmente se preocupan por la seguridad”, declaró Altman a la CNBC, horas antes de reunir a los empleados en una reunión general el viernes.

El general retirado de las Fuerzas Aéreas Jack Shanahan, antiguo responsable de las iniciativas de IA del Pentágono, escribió esta semana en las redes sociales que “pintar una diana en Anthropic consigue titulares picantes, pero al final todo el mundo pierde”.

Shanahan dijo que Claude ya se utiliza ampliamente en todo el gobierno, incluso en entornos clasificados, y que las líneas rojas de Anthropic eran “razonables”. En su opinión, los grandes modelos lingüísticos de inteligencia artificial que utilizan chatbots como Claude, Grok y ChatGPT “no están preparados para su uso en entornos de seguridad nacional”, sobre todo en armas totalmente autónomas.

Anthropic “no pretende hacerse el gracioso”, escribió el jueves en LinkedIn. “No encontrará un sistema con un alcance más amplio y profundo en todo el ejército”.

Popular en la Comunidad


Ups...

Nuestro sitio no es visible desde este navegador.

Te invitamos a descargar cualquiera de estos navegadores para ver nuestras noticias: