Microsoft Copilot-Sicherheitslücke legte vertrauliche E-Mails offen

Dienstag, 24. Februar 2026
Bad Actors konnten den Chatbot anweisen, Dateien zusammenzufassen, auf die ein Benutzer an diesem Tag zugegriffen hatte, und persönliche Details aufzudecken, wie etwa, wo der Benutzer wohnte oder wohin er gereist war. Microsoft hat inzwischen mitgeteilt, dass die Schwachstelle gepatcht wurde.
Diese Vorfälle werden 2026 wahrscheinlich stark zunehmen
Dr. Ilia Kolochenko, CEO bei ImmuniWeb und Fellow der British Computer Society (BCS), erklärte: „Angesichts der rapiden Verbreitung von agentic AI und AI-powered Plugins für traditionelle Software werden Vorfälle wie dieser im Jahr 2026 wahrscheinlich stark ansteigen und möglicherweise zur häufigsten Art von Sicherheitsvorfällen in großen und kleinen Unternehmen weltweit werden.“
Ihm zufolge sind die meisten Unternehmen nicht bereit, KI am Arbeitsplatz ordnungsgemäß zu sichern und zu verwalten, während sowohl Arbeitgeber als auch Mitarbeiter schnell auf die sich explosionsartig vermehrenden KI-Lösungen umsteigen, in der Hoffnung, Produktivitätsgewinne zu erzielen. „Traditionelle Security Controls, wie z. B. DLP-Systeme, sind derzeit nicht in der Lage, den unbefugten oder übermäßigen Einsatz von KI durch unwissende Mitarbeiter oder böswillige Insider zuverlässig zu erkennen. Was das Problem noch verschärft: Cyberkriminelle erstellen bereits aktiv schädliche AI Agents und Anwendungen, um sensible Daten von Nutzern zu stehlen.“
KI wird für den Datenschutz eine Katastrophe sein
Der KI-Missbrauch wird auch 2026 eine Katastrophe für den Datenschutz sein, ergänzt Kolochenko. „Täglich werden weltweit Unmengen sensibler personenbezogener Daten ohne jegliche Vorsichtsmaßnahmen an LLMs weitergegeben. Selbst Regierungsbehörden von Industrieländern sind diesem Risiko ausgesetzt, aufgrund unangemessener oder schlicht fehlender KI-Governance am Arbeitsplatz. Shadow AI, bei dem Mitarbeiter eigene Geräte mit KI-Apps mitbringen, um vertrauliche Daten zu scannen oder anderweitig zu erfassen, wird zu den wichtigsten Herausforderungen gehören, die es zu bewältigen gilt.“
Im Jahr 2026 und in Zukunft, so sagt er, werden wir wahrscheinlich viele Sammelklagen und Einzelklagen gegen sowohl Tech-Giganten als auch KI-Boutiquen wegen unrechtmäßiger Erhebung von Nutzerdaten sehen. „Einige skrupellose Akteure, die Agentic AI gezielt einsetzen, um an wertvolle oder vertrauliche Daten zu gelangen, werden wahrscheinlich behaupten, die Daten unbeabsichtigt und ohne Autorisierung gesammelt zu haben. Ob eine solche Verteidigung vor Gericht Bestand hat, hängt von vielen Faktoren ab, aber die KI-Branche wird wahrscheinlich stark darunter leiden, wobei einige KI-Anbieter aufgrund von Rechtsstreitigkeiten und Reputationsverlusten aus dem Markt verschwinden werden.“
Zum Schluss sagt er, dass Regierungen auf beiden Seiten des Atlantiks wahrscheinlich nach einigen Sicherheitsvorfällen von ausreichendem Ausmaß und Schaden, wie dem Zusammenbruch eines Critical National Infrastructure (CNI) Anbieters oder einem massiven Leak von klassifizierten Dokumenten, eilen werden, den Einsatz von AI streng zu regulieren, was möglicherweise einen neuen AI winter schaffen könnte. Read Full Article
SiliconANGLE: Google warns attackers are wiring AI directly into live cyberattacks
The Register: UK's 'world-first' deepfake detection framework unlikely to stop the fakes, says expert