Cyber Insights 2026: Regulierungen und das Wirrwarr der Compliance-Anforderungen

Freitag, 23. Januar 2026
Seit mehreren Jahren fordern Regierungen die Einbindung von Hintertüren in E2EE-Dienste sowie den Zugriff darauf. Das Argument lautet, dass der Zugriff von Strafverfolgungsbehörden auf verschlüsselte Nachrichten für die nationale Sicherheit und die Verhinderung schwerer Straftaten notwendig sei. Die meisten Technologen lehnen dieses Konzept ab, da sie davon ausgehen, dass jede Hintertür unweigerlich in die Hände von Kriminellen gelangen wird.
Ilia Kolochenko, CEO von Immuniweb und Cybersicherheitspartner bei Platt Law, betrachtet dies pragmatisch.
„Es ist unwahrscheinlich, dass Länder Gesetze verabschieden, die obligatorische Backdoors vorschreiben, da die meisten Anbieter einfach den Markt verlassen würden und das Land ins Mittelalter zurückfallen würde. Anstelle von Backdoors sollten Strafverfolgungsbehörden die derzeit verfügbaren Techniken des rechtmäßigen Hackings, kosteneffiziente Abhörtechniken und bewährte, repressive Verhörmethoden einsetzen, um Verdächtige dazu zu bringen, ihre Passcodes preiszugeben. In den meisten Fällen, einschließlich schwerer Straftaten, funktioniert dies recht gut“, sagt er.
Er weist jedoch auch darauf hin, dass Hintertüren den Strafverfolgungsbehörden zwar das Leben erleichtern würden, ihr Fehlen die Menschen jedoch nicht schützt, wenn die Strafverfolgungsbehörden die Daten wirklich erhalten wollen.
Kolochenko ist der Überzeugung, dass KI Regierungen vor Probleme stellen wird. „Gen-AI lässt sich derzeit nicht wirksam zensieren“, sagt er, „… aber sie kann und verbreitet tatsächlich viele schädliche, illegale und gefährliche Inhalte.“
Dies kann – und geschieht bereits – die massenhafte Verbreitung von Desinformation durch Bots beinhalten, mit dem Ziel, soziale Unruhen und einen möglichen Regimewechsel herbeizuführen.
Das Problem ist dem Einsatz von E2EE ähnlich – sobald es verfügbar und verbreitet ist, lässt es sich sehr schwer kontrollieren. Regierungen haben versucht, die Hersteller davon zu überzeugen, Kontrollen an der Quelle einzubauen, und Kolochenko sieht einen potenziell ähnlichen Ansatz für die Regulierung von KI: „Eine De-facto-Monopolisierung der staatlichen Kontrolle über KI-Anbieter, die sicherstellt, dass kein Chatbot jemals etwas tut, das durch lokales Recht oder ungeschriebene Sitten verboten ist.“
Agentic AI wird problematisch sein. Sie ist darauf ausgelegt, autonom zu sein, eigene Entscheidungen zu treffen und diese schließlich automatisch ohne menschliches Eingreifen auszuführen. Doch die Entwickler von Agentic AI-Systemen wissen nicht immer, wann und mit welchen internen oder externen Datenquellen sie sich verbinden; und Agentic AI-Systeme könnten sich potenziell selbst verändern. Read Full Article
Assured: AI-Autopsie: Warum die ICO LastPass mit 1,2 Mio. £ bestrafte
SecurityWeek: Cyber Insights 2026: Was CISOs in 2026 und darüber hinaus erwarten können