Después de cerrar un acuerdo controvertido con el Departamento de Defensa de los Estados Unidos, el CEO Sam Altman admitió que el despliegue se sintió «oportunista y torpe».
Entonces, ¿qué cambió? Nuevas salvaguardas. Más notablemente, OpenAI dice que sus sistemas no serán utilizados para espiar a los estadounidenses.
Una cláusula que ahora quiere que conste claramente en el contrato.
La tensión no surgió de la nada. La competencia Anthropic ya había chocado con el Pentágono por temores de que su IA, Claude, pudiera utilizarse para vigilancia masiva o armas autónomas.
Irónicamente, a pesar de resistirse, se informó que su tecnología apareció en escenarios de conflicto reales.
IA en la guerra
¿Cómo se utiliza realmente la IA en la guerra? Piensa menos en robots de ciencia ficción y más en el procesamiento de datos.
Empresas como Palantir Technologies ayudan a las fuerzas armadas, desde la OTAN hasta Ucrania, a analizar imágenes satelitales e inteligencia más rápido que nunca.
Pero hay una trampa: la IA puede «alucinar», emitiendo afirmaciones seguras pero falsas.
Por eso, como dijo un funcionario de la OTAN, siempre hay un «humano en el bucle».
Aun así, críticos como Mariarosaria Taddeo, de Oxford, advierten: con los actores centrados en la seguridad retrocediendo, ¿quién mantiene la IA bajo control?
Porque en la guerra moderna, el verdadero campo de batalla podría no ser solo físico: es ético.