Anthropic rechaza las condiciones del Pentágono para el uso letal de Claude

155

La empresa de inteligencia artificial Anthropic ha rechazado las condiciones propuestas por el Departamento de Defensa de Estados Unidos (Pentágono) para permitir el uso potencialmente letal de su chatbot Claude. La decisión subraya los límites que algunas compañías tecnológicas están dispuestas a establecer respecto a la aplicación militar de sus modelos de IA.

Según la información publicada, el desacuerdo gira en torno a las condiciones bajo las cuales Claude podría integrarse en sistemas vinculados a operaciones militares. Anthropic mantiene políticas que restringen explícitamente el uso de sus modelos para causar daño o facilitar acciones letales, una postura alineada con su enfoque de “IA constitucional” y desarrollo responsable.

El caso reabre el debate sobre el papel de las empresas privadas en la carrera tecnológica vinculada a la defensa. Mientras que algunos gigantes del sector han optado por colaborar activamente con agencias gubernamentales en proyectos estratégicos, otras compañías buscan mantener límites éticos claros en relación con el uso de sus herramientas.

El episodio también pone de relieve la creciente importancia geopolítica de la inteligencia artificial. A medida que los modelos avanzados se convierten en infraestructuras críticas con aplicaciones duales (civiles y militares), aumenta la presión sobre las empresas para definir su posicionamiento en cuestiones de seguridad nacional.

Más allá del caso concreto, la decisión de Anthropic refleja una tensión estructural: cómo equilibrar innovación, negocio y responsabilidad ética en un contexto de competencia global por el liderazgo en IA.

Infobae (27/02/2026)

Más información aquí

Si te resultó útil...Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin
Email this to someone
email