Une faille dans Microsoft Copilot a exposé des e-mails confidentiels

Mardi 24 février 2026
Des acteurs malveillants pourraient demander au chatbot de résumer les fichiers auxquels un utilisateur a accédé ce jour-là et de révéler des informations personnelles, telles que le lieu de résidence ou les destinations de voyage de l'utilisateur. Microsoft a depuis déclaré que la vulnérabilité avait été corrigée.
Ces incidents devraient connaître une forte hausse en 2026
Le Dr Ilia Kolochenko, CEO d'ImmuniWeb et Fellow de la British Computer Society (BCS), a déclaré: «Avec la prolifération rapide de l'agentic AI et des plugins alimentés par l'IA pour les logiciels traditionnels, des incidents de ce type vont probablement augmenter en 2026, devenant potentiellement le type d'incident de sécurité le plus fréquent dans les grandes et petites entreprises à travers le monde.»
Selon lui, la plupart des entreprises ne sont pas prêtes à sécuriser et gérer correctement l'IA en milieu professionnel, tandis que les employeurs et les employés adoptent rapidement les solutions d'IA en pleine expansion, dans l'espoir de gagner en productivité. «Les contrôles de sécurité traditionnels, tels que les systèmes DLP, sont actuellement incapables de détecter de manière fiable l'utilisation non autorisée ou excessive de l'IA par des employés non avertis ou des initiés malveillants. Pire encore, les cybercriminels créent déjà activement des agents et applications d'IA malveillants pour voler des données sensibles auprès des utilisateurs.»
L'IA sera un désastre pour la vie privée
L'utilisation abusive de l'IA sera également un désastre pour la vie privée en 2026, ajoute Kolochenko. «Chaque jour, des tonnes de données personnelles sensibles sont partagées avec des LLMs à travers le monde sans aucune précaution. Même les agences gouvernementales des pays développés sont exposées à ce risque en raison d'une gouvernance de l'IA insuffisante, voire inexistante, au sein de l'entreprise. Le Shadow AI, lorsque les employés apportent leurs propres appareils équipés d'applications d'IA pour scanner ou traiter des données confidentielles, sera l'un des principaux défis à relever.»
En 2026 et au-delà, il affirme que nous assisterons probablement à de nombreuses actions de groupe et poursuites individuelles contre les géants de la tech et les boutiques d'IA pour collecte illicite de données des utilisateurs. «Certains acteurs peu scrupuleux qui utilisent délibérément l'IA agentique pour obtenir des données précieuses ou confidentielles prétendront probablement avoir collecté ces données sans autorisation par erreur. La validité d'une telle défense devant les tribunaux dépendra de nombreux facteurs, mais le secteur de l'IA risque d'en souffrir considérablement, certains fournisseurs d'IA pouvant même faire faillite en raison de litiges et d'atteintes à leur réputation.»
Enfin, selon lui, après la survenue de quelques incidents de sécurité d'une ampleur et d'un impact suffisants, tels qu'une panne d'un fournisseur de Critical National Infrastructure (CNI) ou une fuite massive de documents classifiés, les gouvernements des deux côtés de l'Atlantique se précipiteront probablement pour réglementer sévèrement l'utilisation de l'IA, créant peut-être un nouvel "AI winter". Lire l'article complet
SiliconANGLE: Google avertit que les pirates intègrent directement l'AI dans leurs cyberattacks en cours
The Register: Le cadre de détection des deepfakes «premier au monde» du Royaume-Uni ne devrait pas arrêter les faux, selon un expert