Pétition contre le chat control à partager massivement : https://stopchatcontrol.fr/
Présenté en 2022, ce projet de règlement européen pourrait imposer dès 2025 un système de surveillance sans précédent à 450 millions d’Européens. Sous couvert de lutte contre les contenus pédopornographiques, il obligerait chaque pays à déployer des outils capables de fouiller nos communications privées, ouvrant une ère de contrôle permanent.

STOP Chat ControlAccueil - STOP Chat ControlL’UNION EUROPÉENNE VEUT IMPOSER LE PROJET « CHAT CONTROL ». DITES NON À : La surveillance de vos messages privés Pétition en ligne 0 signatures SIGNEZ LA PÉTITION « Chat Control », c’est quoi ? Qu’est-ce que « Chat Control » ? Présenté en 2022, ce projet de règlement européen pourrait imposer dès 2025 un système de surveillance sans précédent à 450 millions d’Européens. Sous couvert de lutte contre les contenus pédopornographiques, il obligerait chaque pays à déployer des outils capables de fouiller nos communications privées, ouvrant une ère de contrôle permanent. Base : proposition COM(2022) 209. La méthode : une surveillance totale Les applications et fabricants d’appareils seraient forcés d’intégrer des systèmes capables de scanner en temps réel tous nos messages, photos et vidéos. Plus aucune distinction entre suspect et citoyen lambda : tout le monde passerait sous le microscope d’un contrôle automatisé. Détection massive et obligatoire. « Client-side scanning » : le mouchard intégré Ce procédé espionne vos échanges avant même leur envoi, y compris sur WhatsApp, Signal, Telegram ou Proton Mail. Un algorithme compare vos contenus à des bases mondiales : un simple faux positif pourrait suffire à vous signaler aux autorités. C’est la fin du vrai chiffrement. Analyse avant chiffrement / envoi. Une atteinte à votre vie privée Avec « Chat Control », aucun message n’est vraiment privé. C’est la porte ouverte à l’auto-censure, aux erreurs d’algorithmes et à la violation du secret professionnel. Médecins, avocats, journalistes : plus personne ne pourra garantir la confidentialité. Confidentialité & libertés en péril. Le jackpot pour les géants du numérique Microsoft, Thorn et d’autres lorgnent déjà ce marché colossal de la surveillance automatisée. Les données des Européens pourraient finir hébergées sur des clouds américains, ruinant notre souveraineté numérique au profit de lobbies puissants. Technologies privées & dépendance. Un précédent dangereux Imposer la surveillance de toutes les conversations crée un outil de censure universel. Aujourd’hui au nom de la protection des enfants, demain pour traquer toute opinion jugée dérangeante. Les garde-fous ? Absents ou fragiles. Vers une surveillance sans limites. En savoir + : Questions / Réponses Tout ouvrir Tout refermer C’est quoi exactement le « Chat Control » ? Définition Le “Chat Control” est un projet de règlement de l’Union européenne (proposé par la Commission le 11 mai 2022) qui instaurerait un cadre légal pour détecter, signaler et retirer les contenus d’abus sexuels sur mineurs en ligne (CSAM). Dans sa version la plus controversée, il impose aux messageries et services en ligne de scanner automatiquement ce que les utilisateurs envoient — textes, images, vidéos — y compris dans des conversations censées rester privées et chiffrées de bout en bout. Techniquement, cela revient à déplacer la surveillance au plus près de la source : sur votre appareil même, avant que le chiffrement ne protège vos messages (“client-side scanning”, ou CSS). Cette approche a été jugée problématique par de nombreuses autorités de protection des données et par le service juridique du Conseil, car elle revient à une fouille généralisée dépourvue de soupçon individuel préalable. Comment fonctionne le “client-side scanning” (CSS) et pourquoi c’est risqué ? Technique Concrètement, l’application de messagerie embarque un module qui calcule une “empreinte” (hash perceptuel) pour chaque image ou analyse chaque message avant l’envoi, puis compare le résultat à des bases de références jugées illégales (catalogues de hachages CSAM, listes de motifs, modèles d’IA). Si l’algorithme “pense” reconnaître un contenu prohibé, il génère un rapport et déclenche une chaîne d’alerte vers un centre désigné ou les autorités. Le problème tient à la fois au principe et à la pratique : sur le principe, vous êtes scanné en permanence sans lien avec une enquête ; sur la pratique, ces systèmes ne sont ni parfaits ni neutres. La littérature scientifique montre des vulnérabilités structurelles : on peut fabriquer de faux positifs à la chaîne, empoisonner les bases de hachage, ou dissimuler un “objectif caché” (ex. reconnaissance faciale ciblée) dans un algorithme de hachage censé ne rechercher que du CSAM. Dans tous les cas, des erreurs se produisent et elles ont des conséquences humaines (comptes fermés, enquêtes injustifiées). On l’a vu dès 2022 : Google a signalé à la police des pères qui avaient pris des photos médicales de leurs enfants à la demande d’un médecin ; les comptes ont été fermés et la suspicion a perduré malgré la clôture des enquêtes. Quelles atteintes aux libertés fondamentales ? Droits & libertés Le cœur du problème tient au secret des correspondances et à la protection des données. La Charte des droits fondamentaux de l’UE (art. 7 et 8) et la CEDH (art. 8) protègent la vie privée et l’intégrité des communications. La jurisprudence de la CJUE a, à plusieurs reprises, interdit les mécanismes de surveillance généralisée et indifférenciée — même motivés par des objectifs légitimes — au motif qu’ils ne visent pas des personnes déterminées et proportionnées (Digital Rights Ireland, Tele2 Sverige). En d’autres termes : on ne peut pas passer l’intégralité de la population au crible “au cas où”. L’EDPB et l’EDPS, autorités phares en matière de protection des données, ont explicitement averti que le projet, en l’état, conduirait de facto à un balayage généralisé de presque toutes les communications, avec des effets dissuasifs notables sur la liberté d’expression (journalistes, ONG, professions protégées). Est-ce compatible avec le droit européen ? Cadre juridique UE Plusieurs signaux sérieux indiquent que non, si le texte impose des détections indifférenciées. Le service juridique du Conseil a souligné l’atteinte aux droits fondamentaux d’une telle surveillance de contenus interpersonnels sans ciblage. Le Parlement (via la commission LIBE) a voté en novembre 2023 une position refusant les scans de masse et protégeant explicitement le chiffrement de bout en bout. Cela ne signifie pas que tout scan est impossible, mais qu’il doit être strictement ciblé, proportionné, et encadré par un contrôle judiciaire robuste. Toute solution qui contourne le chiffrement par un scan systématique côté client se heurte à ces principes. C’est quoi un règlement européen ? Institutions Un règlement est un acte législatif de l’UE (art. 288 TFUE) qui a portée générale,