Servicio de noticias
Producido externamente por una organización que confiamos cumple con las normas periodísticas.

Pete Hegseth advierte a Anthropic que militares tienen autonomía para utilizar la Inteligencia Artificial como consideren oportuno

El Secretario de Defensa lanzó un ultimátum al director general de de la empresa tencológica

25 de febrero de 2026 - 10:14 PM

Anthropic fabrica el chatbot Claude y es la última de sus competidoras en no suministrar su tecnología a una nueva red interna militar estadounidense. (Kevin Wolf)

Washington- El Secretario de Defensa, Pete Hegseth, dio al CEO de Anthropic un plazo hasta el viernes para abrir la tecnología de inteligencia artificial de la compañía para uso militar sin restricciones o arriesgarse a perder su contrato con el gobierno, según una persona familiarizada con su reunión del martes.

Anthropic fabrica el chatbot Claude y es la última de sus competidoras en no suministrar su tecnología a una nueva red interna militar estadounidense. Su director ejecutivo, Dario Amodei, ha manifestado en repetidas ocasiones su preocupación ética por el uso incontrolado de la IA por parte de los gobiernos, incluidos los peligros de los drones armados totalmente autónomos y de la vigilancia masiva asistida por IA que podría rastrear la disidencia.

Funcionarios de Defensa advirtieron que podrían designar a Anthropic un riesgo para la cadena de suministro o utilizar la Ley de Producción de Defensa para dar esencialmente a los militares más autoridad para utilizar sus productos, incluso si no aprueba la forma en que se utilizan, según la persona familiarizada con la reunión y un alto funcionario del Pentágono, que no estaban autorizados a comentar públicamente y hablaron bajo condición de anonimato.

La noticia, de la que ya informó Axios, subraya el debate sobre el papel de la IA en la seguridad nacional y las preocupaciones sobre cómo podría utilizarse la tecnología en situaciones de alto riesgo que impliquen el uso de fuerza letal, información sensible o vigilancia gubernamental. También se produce cuando Hegseth se ha comprometido a erradicar lo que él llama una “cultura woke” en las fuerzas armadas.

“Una potente inteligencia artificial que analizara miles de millones de conversaciones de millones de personas podría calibrar el sentimiento público, detectar focos de deslealtad en formación y acabar con ellos antes de que crezcan”, escribió Amodei en un ensayo el mes pasado.

Según esta persona, el tono de la reunión fue cordial, pero Amodei no cedió en dos aspectos que ha establecido como líneas que Anthropic no cruzará: las operaciones militares totalmente autónomas y la vigilancia nacional de ciudadanos estadounidenses.

El Pentágono se opone a las restricciones éticas de Anthropic porque las operaciones militares necesitan herramientas que no vengan con limitaciones incorporadas, dijo el alto funcionario del Pentágono. El funcionario argumentó que el Pentágono sólo ha emitido órdenes legales y subrayó que el uso legal de las herramientas de Anthropic sería responsabilidad de los militares.

Dejará de ser la única empresa de IA autorizada

El Pentágono anunció el verano pasado que concedía contratos de defensa a cuatro empresas de IA: Anthropic, Google, OpenAI y xAI de Elon Musk. Cada contrato asciende a 200 millones de dólares.

Anthropic fue la primera empresa de IA en obtener la aprobación para redes militares clasificadas, donde trabaja con socios como Palantir. La empresa xAI de Musk, que opera el chatbot Grok, afirma que Grok también está listo para ser utilizado en entornos clasificados, según el alto funcionario del Pentágono.

El funcionario señaló que las demás empresas de IA estaban “cerca” de ese hito. SpaceX, la empresa de vuelos espaciales de Musk que recientemente se fusionó con xAI, no devolvió inmediatamente una solicitud de comentarios el martes.

Hegseth dijo en un discurso pronunciado en enero en SpaceX, en el sur de Texas, que se encogía de hombros ante cualquier modelo de IA “que no permita luchar en guerras”.

Hegseth dijo que su visión de los sistemas militares de IA implica que funcionen “sin restricciones ideológicas que limiten las aplicaciones militares lícitas”, antes de añadir que “la IA del Pentágono no será despertada”.

El Secretario de Defensa anunció que Grok se incorporaría a la red de inteligencia artificial del Pentágono, denominada GenAI.mil. El anuncio se produjo días después de que Grok, que está integrado en X, la red social propiedad de Musk, fuera objeto de escrutinio mundial por generar imágenes falsas (deepfake) muy sexualizadas de personas sin su consentimiento.

OpenAI anunció a principios de febrero que también se uniría a GenAI.mil, lo que permitiría a los miembros del servicio utilizar una versión personalizada de ChatGPT para tareas no clasificadas.

Preocupado por la seguridad

Anthropic dijo en un comunicado tras la reunión del martes que “continuaron las conversaciones de buena fe sobre nuestra política de uso para garantizar que Anthropic pueda seguir apoyando la misión de seguridad nacional del gobierno en línea con lo que nuestros modelos pueden hacer de forma fiable y responsable.”

Desde que sus fundadores abandonaron OpenAI para fundar esta empresa en 2021, Anthropic se ha presentado como la más responsable y preocupada por la seguridad de las principales empresas de IA.

La incertidumbre con el Pentágono está poniendo a prueba esas intenciones, según Owen Daniels, director asociado de análisis y miembro del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown.

“Los pares de Anthropic, incluyendo Meta, Google y xAI, han estado dispuestos a cumplir con la política del departamento sobre el uso de modelos para todas las aplicaciones legales”, dijo Daniels. “Así que el poder de negociación de la empresa aquí es limitado, y corre el riesgo de perder influencia en el impulso del departamento para adoptar la IA”.

En la locura por la IA que siguió al lanzamiento de ChatGPT, Anthropic se alineó estrechamente con la administración demócrata del Presidente Joe Biden al ofrecerse voluntariamente a someter sus sistemas de IA al escrutinio de terceros para protegerse de los riesgos para la seguridad nacional.

Amodei, el CEO, ha advertido de los peligros potencialmente catastróficos de la IA, al tiempo que rechaza la etiqueta de que es un “doomer” de la IA. Argumentó en el ensayo de enero que “estamos considerablemente más cerca del peligro real en 2026 de lo que estábamos en 2023″ pero que esos riesgos deben gestionarse de una “manera realista y pragmática.”

Tensión por dramático vídeo de incidente aéreo entre Rusia y Estados Unidos

Tensión por dramático vídeo de incidente aéreo entre Rusia y Estados Unidos

El Pentágono difundió imágenes del momento en que un avión ruso habría hecho una intervención temeraria ante un dron de vigilancia de la Fuerza Aérea de EE.UU.

Anthropic se ha enemistado con Trump

No sería la primera vez que Anthropic aboga por salvaguardias más estrictas para la IA y se enfrenta a la administración del presidente Donald Trump. Anthropic ha criticado públicamente al fabricante de chips Nvidia, criticando las propuestas de Trump de relajar los controles de exportación para permitir que algunos chips informáticos de IA se vendan en China. Sin embargo, la empresa de IA sigue siendo un estrecho colaborador de Nvidia.

La administración republicana de Trump y Anthropic también han estado en lados opuestos de un grupo de presión para regular la IA en los estados de Estados Unidos.

El principal asesor de Trump en materia de AI, David Sacks, acusó a Anthropic en octubre de “ejecutar una sofisticada estrategia de captura regulatoria basada en el alarmismo.”

Sacks respondía en X al cofundador de Anthropic, Jack Clark, que escribía sobre su intento de equilibrar el optimismo tecnológico con el “miedo apropiado” ante la marcha constante hacia sistemas de IA más capaces.

Anthropic contrató a varios exfuncionarios de Biden poco después del regreso de Trump a la Casa Blanca, pero también ha tratado de señalar un enfoque bipartidista. La empresa incorporó recientemente a su consejo de administración a Chris Liddell, antiguo funcionario de la Casa Blanca durante el primer mandato de Trump.

La “vertiginosa” adopción de la IA por parte del Pentágono demuestra la necesidad de una mayor supervisión o regulación de la IA por parte del Congreso, sobre todo si se utiliza para vigilar a los estadounidenses, afirmó Amos Toh, asesor principal del Programa de Libertad y Seguridad Nacional del Centro Brennan de la Universidad de Nueva York.

“La ley no está a la altura de lo rápido que evoluciona la tecnología”, escribió Toh en un post en Bluesky. “Pero eso no significa que el DoD tenga un cheque en blanco”.

Popular en la Comunidad


Ups...

Nuestro sitio no es visible desde este navegador.

Te invitamos a descargar cualquiera de estos navegadores para ver nuestras noticias: