Google sigue a OpenAI en la ampliación del acceso del Pentágono a la IA tras la negativa de Anthropic: ¿la ética de la IA queda en un segundo plano?

Jueves, 30 de abril de 2026
Hoy en día, la IA es infraestructura y, cada vez más, también es infraestructura geopolítica, no solo un producto.
¿Es esto realmente un problema ético?
No todo el mundo está de acuerdo en que este cambio represente, en absoluto, un claro fallo ético. El Dr. Ilia Kolochenko, CEO de ImmuniWeb, sostiene que la conversación sobre la ética en IA a menudo se confunde con la legalidad. En su opinión, etiquetar estas decisiones como poco éticas puede ser "un exceso", particularmente cuando los marcos legales existentes ya rigen el uso de tales tecnologías.
También existe un argumento pragmático. Los gobiernos, particularmente aquellos con recursos significativos como Estados Unidos, obtendrán inevitablemente acceso a sistemas avanzados de IA. La cuestión, entonces, no es si utilizarán IA, sino qué IA utilizarán y bajo qué supervisión.
Desde esa perspectiva, mantener el desarrollo dentro de ecosistemas nacionales regulados podría considerarse, de hecho, la opción más controlada.
Dr. Ilia Kolochenko, CEO de ImmuniWeb
«Aunque la decisión pueda parecer algo controvertida a primera vista, calificarla de violación ética es una exageración.»
«En primer lugar, es fundamental definir adecuadamente la ética en la IA y lo que la distingue de la ley y la legalidad. Por un lado, algunos actos pueden ser perfectamente legales pero resultar repugnantes para la mayoría de nosotros. Por otro lado, ciertas formas de conducta humana están prohibidas por la ley pero pueden ser respaldadas por muchas personas.»
«La ética en la IA parece estar profundamente entrelazada con la ley y sus principios; por lo tanto, a menos que haya una violación de la ley, no consideraría ninguna decisión relacionada con la IA como poco ética, salvo que existan circunstancias especiales al respecto. Cabe destacar que contamos con una gran cantidad de leyes y normativas vigentes que abarcan tanto el uso como el mal uso de la IA, por lo que no necesitamos leyes específicas de IA, como el EU AI Act, para evaluar la legalidad y, por ende, la ética de las conductas relacionadas con la IA.»
«En segundo lugar, el Pentágono cuenta con amplios recursos para adquirir los modelos de IA más potentes que necesite, ya sea de OpenAI o de cualquier otra empresa estadounidense o extranjera. Por lo tanto, podría decirse que es mejor proporcionar al Pentágono acceso a modelos fabricados en EE. UU., que pueden estar sujetos a supervisión regulatoria y medidas de seguridad para prevenir el uso ilícito. Es probable que la mayoría de los demás proveedores de IA sigan esta decisión y colaboren con las fuerzas armadas de sus países de origen». Leer el artículo completo
Help Net Security: ImmuniWeb presenta actualizaciones de IA, detección poscuántica y más en el primer trimestre de 2026
SecurityWeek: BrowserGate: Las acusaciones de «espionaje» de LinkedIn chocan con los hallazgos de la investigación de seguridad