Selon un expert, le système britannique de détection des deepfakes, «une première mondiale», ne devrait pas empêcher les deepfakes.

Jeudi 5 février 2026
Le gouvernement britannique affirme qu'il développera un cadre «world-first» pour évaluer les technologies de détection des deepfakes, à mesure que les contenus générés par l'IA prolifèrent.
Cependant, le Dr Ilia Kolochenko, PDG d'ImmuniWeb, une entreprise suisse de cybersécurité, a déclaré que ce plan «a très peu de chances d'apporter des améliorations systémiques dans un avenir proche».
M. Kolochenko a souligné l'existence de nombreux outils open source et de groupes d'experts destinés à suivre et à révéler les contenus générés par l'IA. «Même si un contenu IA est détecté, la question majeure concerne les étapes suivantes», a-t-il déclaré à The Register. «Les médias et sites web réputés le supprimeront probablement rapidement, même en l'absence de preuves scientifiques confirmant son origine artificielle.»
Les médias clandestins ou anonymes ne seront probablement pas aussi coopératifs.
«Nous avons besoin d'une réforme systémique et mondiale de la législation – et non seulement d'un code de conduite ou de bonnes pratiques juridiquement inapplicables – pour freiner l'augmentation des préjudices causés par les contenus générés par l'IA», a ajouté M. Kolochenko. «En résumé, bien que cette initiative louable constitue un bon début, nous sommes encore très loin d'une solution finale.»
The Register a demandé au Home Office un calendrier pour le framework et la technologie utilisée, mais n'a pas reçu de réponse. Microsoft nous a renvoyés vers la déclaration du Home Office. Read Full Article
SecurityWeek: Cyber Insights 2026: Cyberwar and Rising Nation State Threats
Compliance Week: L'enquête de l'UE sur Grok pourrait mettre en lumière des problèmes liés à la DSA plutôt que des défauts de conformité