Cyber Insights 2026: Regulaciones y la maraña de requisitos de cumplimiento

Viernes, 23 de enero de 2026
Los gobiernos llevan varios años exigiendo la inserción y el acceso a backdoors en servicios E2EE. El argumento es que el acceso de las LEA a los mensajes cifrados es necesario para la seguridad nacional y la prevención de delitos graves. La mayoría de los tecnólogos desaprueban el concepto, creyendo que cualquier backdoor acabará inevitablemente en manos de actores maliciosos.
Ilia Kolochenko, CEO de Immuniweb y socio de ciberseguridad en Platt Law, adopta una visión pragmática.
«Es poco probable que los países aprueben leyes que exijan puertas traseras obligatorias, ya que la mayoría de los proveedores simplemente abandonarían el mercado y el país volvería a la Edad Media. En lugar de puertas traseras, las fuerzas del orden deberían utilizar las técnicas actualmente disponibles de piratería legal, técnicas de escucha rentables e interrogatorios opresivos de eficacia probada para hacer que los sospechosos revelen sus contraseñas. En la mayoría de los casos, incluidos los delitos graves, esto funciona bastante bien», afirma.
Pero también señala que, aunque los backdoors simplemente facilitarían la vida a las fuerzas del orden, su ausencia no protegerá a las personas si las fuerzas del orden realmente quieren obtener los datos.
Kolochenko cree que la IA creará problemas para los gobiernos. «La Gen-AI no puede censurarse de forma eficaz actualmente», afirma, «... pero puede y de hecho difunde mucho material nocivo, ilícito y peligroso».
Esto puede incluir, y de hecho ya incluye, la difusión masiva de desinformación por parte de bots, con el objetivo de provocar desorden social y un posible cambio de régimen.
El problema es similar al uso de E2EE: una vez disponible y distribuido, es muy difícil de controlar. Los gobiernos han intentado persuadir a los fabricantes para que incorporen controles en origen, y Kolochenko ve un enfoque potencialmente similar para regular la IA: «Un monopolio de facto del control gubernamental sobre los proveedores de IA, garantizando que ningún chatbot haga nunca algo que esté prohibido por la legislación local o por costumbres no escritas».
La IA agéntica será problemática. Está diseñada para ser autónoma, tomar sus propias decisiones y, finalmente, ejecutarlas automáticamente sin intervención humana. Sin embargo, los desarrolladores de sistemas agénticos no siempre saben con qué fuentes de datos internas o externas se conectan; además, estos sistemas podrían, potencialmente, modificarse a sí mismos. Leer el artículo completo
Assured: Autopsia de IA: Por qué la ICO multó a LastPass con 1,2 millones de libras
SecurityWeek: Cyber Insights 2026: Qué pueden esperar los CISO en 2026 y más allá