Más de 600 empleados de Google exigen vetar la IA militar
Más de 600 empleados de Google han firmado una carta dirigida a Sundar Pichai para pedir un freno explícito: no aceptar cargas de trabajo clasificadas del Departamento de Defensa de Estados Unidos.
El argumento central no es nuevo, pero sí más incómodo: cuando el trabajo se vuelve secreto, el control interno desaparece y la compañía pierde capacidad real de impedir usos sensibles.
El movimiento, con fuerte presencia de DeepMind, llega en el peor momento reputacional: la IA se ha convertido en infraestructura militar y el sector vive una carrera comercial que premia el “sí” rápido.
En el texto, los firmantes advierten de un efecto colateral corrosivo: si Google entra en ese terreno, podría acabar asociada a daños que ni siquiera conocerá a tiempo de detener.
La línea roja: trabajos clasificados
La carta plantea una tesis simple y devastadora para cualquier comité de cumplimiento: lo que no se puede auditar, no se puede gobernar. Por eso exige “rechazar cualquier trabajo clasificado” como única garantía para que la tecnología de Google no se use de forma lesiva para derechos civiles o humanos.
En términos corporativos, el matiz es crucial. No se discute solo “trabajar con defensa”, sino el formato contractual que impide saber quién usa el modelo, para qué y con qué cadena de mando. El Pentágono, según recoge la información, reclama libertad para emplear tecnología comercial en “all lawful uses”, un paraguas amplio que los trabajadores consideran insuficiente.
“We want to see AI benefit humanity… includes lethal autonomous weapons and mass surveillance.”
Anthropic como aviso y la ventana de dos meses
El episodio no surge en el vacío. La misiva se produce dos meses después de que Anthropic fuera apartada por el Departamento de Defensa tras intentar introducir una cláusula que restringiera usos ligados a vigilancia masiva y armas autónomas letales.
Ese choque ha terminado en los tribunales y ha operado como advertencia al resto del sector: en un mercado donde el Estado es cliente, regulador y árbitro, las “líneas rojas” pueden convertirse en un conflicto de soberanía industrial.
La consecuencia es clara: cuando una empresa se descuelga por ética contractual, otra entra por oportunidad comercial. De hecho, el propio entorno competitivo se menciona como factor de presión sobre Google y OpenAI.
El precedente Maven y las cicatrices que vuelven
La carta a Pichai recuerda el patrón de 2018, cuando miles de empleados protestaron por Project Maven, un programa del Pentágono para analizar imágenes con IA, y Google acabó no renovando el contrato.
Aquel episodio fue un antes y un después: mostró que el capital humano en una tecnológica puede actuar como contrapeso reputacional y que el riesgo no siempre se mide en multas, sino en talento y confianza. Desde entonces, el activismo interno ha mutado: menos revueltas masivas y más cartas quirúrgicas, vinculadas a unidades concretas de IA, precisamente donde la sensibilidad ética convive con la escasez de perfiles.
El contraste con otras industrias resulta demoledor: pocas compañías aceptarían “caja negra” operacional en procesos críticos sin exigir trazabilidad; la IA aplicada a defensa multiplica ese dilema.
El giro de los principios: de promesa pública a zona gris
Tras Maven, Google publicó sus AI Principles y asumió compromisos explícitos contra armas y vigilancia fuera de normas aceptadas.
Sin embargo, el debate se ha ido desplazando. La información apunta a que la compañía ha buscado más contratos militares en los últimos años y que incluso ha relajado límites previos sobre armas y vigilancia, un movimiento que alimenta la desconfianza interna.
En paralelo, DeepMind arrastra su propia tensión: en 2024 y 2025 hubo cartas internas y presión sindical en Reino Unido ligadas a vínculos con defensa y a contratos sensibles.
Este hecho revela algo incómodo: los principios sirven de escudo comunicativo, pero sin “gobernanza” contractual —auditoría, transparencia y veto efectivo— pueden quedar reducidos a marketing de confianza.
Negocio defensa: nube, Gemini y el incentivo perverso
El pulso no es abstracto. En diciembre Google firmó un acuerdo para que el Departamento de Defensa use Gemini, y el mercado entiende que la defensa se ha convertido en palanca para la nube y para consolidar producto.
Además, OpenAI firmó en febrero un acuerdo para proporcionar IA a cargas clasificadas, justo después de la ruptura con Anthropic.
Cuando el cliente es el Estado, el incentivo es evidente: contratos grandes, estabilidad plurianual y prestigio institucional. Pero el coste oculto es el “riesgo compuesto”: si una herramienta entra en operaciones sensibles, la empresa hereda controversias ajenas —objetivos, víctimas, legalidad internacional— sin capacidad de explicar el detalle por secreto.
DeepMind en el centro del choque cultural
Que el empuje nazca de DeepMind no es casual. Es la unidad donde la misión (“beneficiar a la humanidad”) funciona como contrato psicológico con el talento. Cuando ese pacto se erosiona, la fuga de cerebros es una amenaza tan material como un litigio.
El conflicto también expone una fractura de diseño organizativo: el liderazgo promete controles, pero los ingenieros piden controles verificables. Y en el terreno clasificado, por definición, no existen para el resto de la compañía.
En el fondo, la carta es un aviso al consejo y a los inversores: la IA militar no es solo un mercado, es un test de gobernanza. Y si la respuesta es ambigua, la marca Google puede pagar el precio en confianza social, en atracción de talento y en presión regulatoria, justo cuando la industria ya vive bajo escrutinio permanente.