Um ein optimales Surferlebnis zu gewährleisten, aktivieren Sie bitte JavaScript in Ihrem Webbrowser. Ohne JavaScript sind viele Website-Funktionen nicht verfügbar.


Gesamtzahl der Tests:
Bleiben Sie in Kontakt

Erhalten Sie die neuesten Updates, wöchentliche Einblicke und Einladungen zu Webinaren und Veranstaltungen.


Ihre Daten bleiben vertraulich.Vertraulich und privat

Wie KI zu einer tickenden Zeitbombe in Organisationen wird

International Security Journal
By Eve Goode for International Security Journal
Donnerstag, 12. März 2026

ISJ spricht exklusiv mit Dr. Ilia Kolochenko, CEO von ImmuniWeb, über die zunehmenden Sicherheitsrisiken, denen Organisationen durch die wachsende Integration von KI ausgesetzt sind.

Können Sie sich kurz vorstellen und mir etwas über Ihre Rolle bei ImmuniWeb erzählen?

Mein Name ist Dr. Ilia Kolochenko, ich bin CEO und Chief Architect von ImmuniWeb und leite die technischen Teams, Produkte und Innovationen.

Ich bin außerdem Rechtsanwalt in Washington, D.C., und stellvertretender Vorsitzender des Ausschusses für Informationssicherheit der American Bar Association (ABA).

Warum glauben Sie, dass KI im Jahr 2026 zu einer „tickenden Zeitbombe“ wird? Was hat sich geändert?

KI birgt ein enormes Potenzial für die Menschheit, doch ihre rücksichtslose und unbedachte Implementierung könnte tatsächlich eine tickende Zeitbombe sein, die globales Chaos sowie jahrzehntelange wirtschaftliche und soziale Rezession auslösen kann.

Das Problem ist, dass KI Dinge wie Legacy-Infrastruktur oder veraltete Anwendungen nicht einfach „reparieren“ kann, ohne dabei fast unweigerlich etwas kaputtzumachen.

Zudem werden die meisten KI-Modelle mit allen Arten von menschengenerierten Daten – einschließlich Desinformation sowie bösartigen und schädlichen Daten – trainiert, die die Ausgabe von LLM-Modellen beeinflussen werden, selbst wenn wir mehrschichtige Guardrails aufbauen, um dies zu verhindern.

Während synthetische Daten (d. h. von KI generierte Daten) zunehmend für Trainingszwecke eingesetzt werden, steigen die Risiken, dass Modelle halluzinieren und auf völlig unvorhersehbare und unkontrollierbare Weise aus der Bahn geraten.

Derzeit dringen schlecht entworfene KI-Technologien und ihre Derivate fortschreitend in alle Schichten unserer Gesellschaft und unseres täglichen Lebens ein, wie für das menschliche Auge unsichtbare Gifte oder Strahlung, und früher oder später werden wir einen Punkt ohne Rückkehr erreichen.

Die nun beliebte Agentic AI könnte den bevorstehenden Zusammenbruch beschleunigen: KI-Agenten treffen in unbeaufsichtigten Umgebungen praktisch unkontrollierte Entscheidungen, oft unter Nutzung geschäftskritischer Systeme oder Daten.

Wir müssen verstehen, dass AI nur ein Werkzeug ist, das nichts mit menschlicher Intelligenz gemeinsam hat, geschweige denn mit menschlichen Entscheidungsprozessen.

Obwohl KI fälschlicherweise als allwissend und allmächtig wirken mag, kann sie ohne die sorgfältige Beaufsichtigung durch menschliche Experten nur wenig bewirken.

Um ihre Investoren zu beeindrucken, mangelt es den KI-Giganten nicht an sensationellen Pressemitteilungen und großspurigen Ankündigungen, die meist darauf abzielen, ihre Konkurrenten zu verunglimpfen oder technisch ungenaue Aussagen zu verbreiten.

Beispielsweise kann moderne KI bei grundlegenden juristischen oder medizinischen Fragen zwar durchaus hilfreich sein, doch der Einsatz von KI in Rechtsstreitigkeiten oder medizinischen Behandlungen ist – sofern man nicht selbst Anwalt oder Arzt ist – ein sicheres Rezept, um den Fall zu verlieren oder ernsthaft zu erkranken.

Inwiefern erhöhen Tools wie Copilot und Gemini die Sicherheitsrisiken in Unternehmen, insbesondere mit der Zunahme von „Shadow AI“?

Erstens: Aufgrund des unzureichenden oder schlichtweg fehlenden Security Awareness bezüglich der KI-Risiken geben viele Enterprise-Nutzer gedankenlos sensible und vertrauliche Daten an die wachsende Zahl von KI-Tools, Bots und Diensten weiter.

Niemand hinterfragt oder kümmert sich wirklich darum, was mit diesen Daten最终 geschehen wird. In Wirklichkeit werden skrupellose Unternehmen sie zu kommerziellen Zwecken ausnutzen, während Cyberbedrohungsakteure nun bösartige, KI-gestützte Dienste aufbauen, um Ihre Daten für Erpressung und Wirtschaftsspionage zu ergaunern.

Zweitens: Selbst wenn eine Organisation über ein AI Governance-Programm verfügt, dringt Shadow AI durch verschiedene Schlupflöcher in ihre Räumlichkeiten ein.

Zum Beispiel nutzen Unternehmensnutzer weiterhin ihre privaten Smartphones, um Fotos von vertraulichen Dokumenten für die Übersetzung oder Zusammenfassung mit KI zu machen.

Noch wichtiger ist, dass praktisch alle Anbieter – von Zoom über Adobe bis hin zu Microsoft – nun eine Vielzahl „kostenloser“ KI-Funktionen anbieten, die mit einem Klick aktiviert werden können.

Der Preis, den die Nutzer und ihre Organisationen zahlen, ist ihre Privatsphäre und Vertraulichkeit.

Schließlich haben die meisten Organisationen weiterhin Schwierigkeiten, eine Lösung zu finden, selbst für grundlegende Third-Party-Risiken, die aus ihrer Lieferkette und externen Anbietern stammen.

Es versteht sich von selbst, dass es eine mühsame Aufgabe wäre, weltweit auch nur ein einziges Unternehmen zu finden, das mit Sicherheit sagen könnte, ob und wie seine Daten von den KI-gestützten Systemen seiner Lieferanten genutzt werden.

Sind große Sprachmodelle grundsätzlich unvereinbar mit Datenschutzgesetzen wie dem UK GDPR?

Ich halte kein derzeit existierendes LLM (d. h. großes KI-Modell für allgemeine Zwecke) für technisch oder architektonisch mit der UK GDPR kompatibel.

Wenn ein Modell beispielsweise einmal personenbezogene Daten verarbeitet hat, wäre es fast unmöglich, diese zu löschen, ohne erhebliche Kosten zu verursachen.

Ein weiteres Beispiel ist die klar definierte Nutzung personenbezogener Daten, die auf bestimmte rechtmäßige Zwecke beschränkt ist – was eine „Mission Impossible“ ist, wenn ein LLM von Millionen nicht identifizierbarer Nutzer verwendet wird.

Die Implementierung von Guardrails wird nicht wirklich helfen: Das ist so, als würde man Schmerzmittel nehmen, anstatt die Krankheit zu heilen, oder seine Metallläden schließen, anstatt das Problem der zügellosen Kriminalität in der eigenen Straße anzugehen.

Zusammenfassend könnten KI-Modelle – möglicherweise sogar LLMs –, wenn sie von Grund auf korrekt entwickelt werden, mit den wichtigsten Bestimmungen der UK GDPR vereinbar sein.

Es ist jedoch unwahrscheinlich, dass wir derartige Modelle in absehbarer Zukunft sehen werden, da ihr Training und ihre Wartung zu kostspielig sind, während KI-Anbieter Gewinne vor allem anderen priorisieren.

Könnten Technologieunternehmen rechtliche oder finanzielle Konsequenzen erwarten, wenn ihre KI-Tools für Hacking oder Datenmissbrauch genutzt werden?

Zwar befürworten viele KI-spezifische Gesetze zur Regulierung der durch die rasante Verbreitung von KI entstehenden neuen Risiken und Bedrohungen.

In den meisten Rechtsordnungen auf beiden Seiten des Atlantiks können jedoch bestehende Gesetze die meisten KI-ausgelösten oder KI-getriebenen Vorfälle regeln.

Wenn Ihr KI-Bot beispielsweise einen Kunden beleidigt, einen falschen Artikel an Ihren Kunden versendet, die Reservierung Ihres Hotels storniert oder schädliche Ratschläge gibt – „Die KI hat es getan“ wird einer gerichtlichen Prüfung nicht standhalten.

Das gesagt, könnten branchenspezifische Vorschriften für die KI-Branche wünschenswert sein, um zu verhindern, dass kreative und clevere Anwälte nach zahlreichen Gesetzeslücken suchen oder die Schuld abwälzen, wenn KI außer Kontrolle gerät.

Funktionieren Maßnahmen wie die KI-gestützte Deepfake-Erkennung tatsächlich oder sind sie nur vorübergehende Lösungen?

Vorerst nein.

Außerdem geht es nicht wirklich darum, Deepfakes zu erkennen, sondern vielmehr darum, wie Menschen Deepfakes wahrnehmen.

Auch wenn die meisten regelkonformen Plattformen KI-generierte Inhalte gewissenhaft als solche kennzeichnen, werden Menschen, die daran glauben möchten, weiterhin daran glauben.

Hier geht es um menschliche Psychologie, nicht um KI.

Welcher große KI-Zwischenfall könnte strengere Vorschriften auslösen und wie sollten Unternehmen sich jetzt vorbereiten?

Sobald es zu einem Vorfall kommt, der Hunderte von Menschenleben kostet, viele Milliarden Dollar an Börsenwert vernichtet oder rechtmäßige Wahlen beeinträchtigt, werden Politiker und Gesetzgeber wahrscheinlich hastig dazu übergehen, KI grausam zu regulieren.

Leider wird es wahrscheinlich bereits zu spät sein, da Überregulierung den Zusammenbruch der KI-Blase auslösen könnte, weil sich Investoren sicherlich fürchten und einen massiven Ausverkauf starten werden, was letztlich einen Dominoeffekt auslöst.

Welchen Ratschlag würden Sie Unternehmen für die Zukunft geben?

  • KI hat enormes Potenzial, ist aber nur ein Werkzeug
  • Wenden Sie kritisches Denken an, wenn Sie KI-Tools und -Technologien implementieren, entwickeln oder bewerten.
  • Fragen stellen
  • Nehmen Sie alles, was KI-Anbieter oder deren Verbündete über die strahlende Zukunft der KI erzählen, mit einer Prise Salz
  • Nutzen Sie gesunden Menschenverstand, Vernunft und Logik, um fundierte Entscheidungen zu treffen
  • Besonnene und intelligente Menschen sind hier, um die KI zu führen
Den vollständigen Artikel lesen


Sprechen Sie mit einem Experten