Dans un monde de plus en plus numérisé, nous passons beaucoup de temps en ligne : Chatter, acheter, travailler, s'informer. Parallèlement, les règles régissant la manière dont les contenus sont partagés, modérés ou contrôlés évoluent. Le Digital Services Act (DSA), le European Media Freedom Act (EMFA), le futur Regulation to Prevent and Combat Child Sexual Abuse (CSAR, souvent appelé „Chatcontrol“) et le AI Act sont des projets de loi centraux de l'Union européenne (UE), par lesquels elle entend réguler l'environnement numérique.
Ces cadres réglementaires peuvent sembler lointains à première vue - mais ils ont des conséquences pour toi en tant que personne privée et aussi pour les petites ou moyennes entreprises. Cet article t'accompagne pas à pas : de la question „Qu'est-ce qui est prévu ici ?“ au changement de perspective en passant par les tenants et les aboutissants et les axes temporels : qu'est-ce que cela signifie concrètement pour toi au quotidien ?
Dans la première partie, nous verrons ce qui est prévu en général, quels sont les grands projets de loi actuellement en discussion ou déjà adoptés et pour quelle raison ils ont été mis en place.
Ce que l'UE est en train de planifier : un simple aperçu
Ces dernières années, l'UE a pris conscience de la situation : L'Internet évolue rapidement. Des plateformes avec des millions ou des milliards d'utilisateurs, l'intelligence artificielle, de nouvelles formes de communication - de nombreux cadres juridiques datent encore des décennies précédentes. L'UE estime qu'il y a un grand besoin de rattrapage : elle veut rendre l'espace numérique plus sûr, protéger les droits fondamentaux et créer des conditions équitables - aussi bien pour les utilisateurs que pour les entreprises. Par exemple, il est dit à propos de la DSA
„L'objectif est de créer un espace numérique plus sûr, dans lequel les droits fondamentaux de tous les utilisateurs de services numériques sont protégés“.“
Comme plusieurs projets de loi ont été élaborés en parallèle, on a l'impression que „beaucoup de choses sont désormais réglementées en même temps“, ce qui crée une certaine insécurité, surtout pour les personnes qui ne s'occupent pas quotidiennement du droit numérique.
Les grands objectifs selon l'UE
Les principaux objectifs de ces paquets législatifs peuvent être résumés comme suit :
- Protection contre les abus: Par exemple, l'UE veut utiliser le Projet de CSAR veiller à ce que les représentations d'abus sexuels d'enfants (CSAM) en ligne soient identifiées et supprimées plus rapidement.
- Protection contre la désinformation, l'ingérence électorale et les risques sociaux: Lors de la DSA stipule explicitement qu'elle doit servir, entre autres, à limiter la propagation de contenus illégaux et d'autres risques.
- Pluralisme des médias, transparence et conditions de concurrence équitablesAvec l'EMFA, l'UE s'efforce de renforcer la régulation du paysage médiatique afin de limiter l'influence et la concentration.
- Règles sur l'intelligence artificielle et obligations d'étiquetageLe AI Act doit à l'avenir veiller à ce que les systèmes d'IA et leur contenu soient transparents - par exemple en cas de deepfakes ou de décisions automatisées.
- Des conditions équitables pour les entreprisesL'UE veut non seulement protéger les utilisateurs, mais aussi garantir la clarté et l'égalité des droits. Règles du jeu pour les fournisseurs créer (par exemple, des plateformes). Dans le cas de la DSA, l'un des objectifs est : „un ensemble de règles et des conditions de concurrence uniformes pour les entreprises“.
Où en sommes-nous aujourd'hui ?
La situation peut être résumée comme suit :
- Auprès de la DSALe cadre réglementaire a déjà été adopte, Les fournisseurs de très grandes plateformes en ligne sont soumis à des règles particulièrement strictes depuis 2023/24.
- Pour le CSAR („Chatcontrol“)La proposition a été présentée par la Commission européenne en 2022. Cependant, de nombreux États membres ainsi que des organisations de protection des données et des libertés s'opposent à la proposition. forte critique. Il n'est donc pas encore terminé.
- Pour l'EMFA et l'AI ActL'EMFA a été formellement adoptée et doit s'appliquer à partir de certaines dates. L'AI Act est en vigueur, mais de nombreuses obligations s'appliquent de manière échelonnée.
Important : même si des lois ont été adoptées, cela ne signifie pas que toutes les directives s'appliquent immédiatement - il y a souvent des périodes de transition, des exceptions ou des mises en œuvre techniques qui sont encore en suspens. Dans cette première partie, nous avons donc mis en évidence les cadres réglementaires en jeu, l'objectif de l'UE et la situation actuelle. Dans le chapitre suivant, nous aborderons de manière ciblée chacune des grandes lois - en termes simples, afin que l'on comprenne bien : „De quoi s'agit-il exactement ?“
Sondage actuel sur le projet de carte d'identité numérique européenne
Chat Control / CSAR - Surveillance des communications privées
En 2022, la Regulation to Prevent and Combat Child Sexual Abuse (CSAR) de la Commission européenne a présenté la proposition que beaucoup ont qualifiée de „Contrôle du chat“de l'Union européenne. L'essentiel : les fournisseurs de services de messagerie, de plateformes de chat ou d'autres services de communication numérique doivent être tenus de rechercher, de signaler et de supprimer les contenus d'abus sexuels sur enfants (CSAM).
L'idée sous-jacente est compréhensible : Le matériel abusif en ligne est un problème grave et les lois nationales seules ne sont pas toujours efficaces - l'UE voit ici un des besoins normaux uniformes.
Mais c'est là que la controverse commence : Car la proposition prévoit, dans certaines variantes, que les communications soient fouillées, même si elles sont cryptées de bout en bout. Au quotidien, cela signifie que vos discussions, photos ou vidéos privées pourraient être analysées techniquement - avant que le service de messagerie ne les crypte ou ne les transmette. Les critiques parlent d'une surveillance de masse.
La technique est exigeante et comporte des risques : comment détecter de manière vraiment sûre le matériel abusif sans risquer de poser des diagnostics erronés ? Comment garantir la protection des données et le cryptage ? Un site Étude montre que les fausses alertes („faux positifs“) peuvent être élevées, notamment en cas de scanning côté client.
En bref, la proposition combine une mission de protection légitime avec des risques considérables pour les droits fondamentaux. Pour le citoyen, cela signifie que les communications privées pourraient être davantage contrôlées à l'avenir - même si vous n'avez rien à voir avec les abus. Pour les petites entreprises, cela signifie que si vous exploitez des canaux de messagerie ou des communications avec des clients, vous devriez vous préparer à l'éventualité de nouvelles obligations légales ou de contrôles techniques.
| Aspect | Description |
|---|---|
| Nom | Regulation to Prevent and Combat Child Sexual Abuse (CSAR), familièrement appelé „Chatcontrol“.“ |
| Objectif principal selon l'UE | Prévenir, signaler et supprimer la diffusion en ligne d'images d'abus sexuels sur des enfants (CSAM) ; créer un centre européen de signalement. |
| Qui est concerné en premier lieu ? | Fournisseurs de services de communication (messageries, chats, plateformes d'hébergement, services cloud), en partie également fournisseurs de communications cryptées. |
| Instruments centraux | - Analyse (partielle) du contenu à la recherche de modèles d'abus connus - Obligations de déclaration aux autorités/au centre de l'UE - Mesures de surveillance obligatoires ou „volontaires“ selon la classification des risques |
| Situation actuelle | - Proposition de règlement en négociation depuis 2022 - Forte opposition de plusieurs États membres et organisations de défense des droits civils - Textes de compromis avec scannage „volontaire“ en discussion |
| Arguments des partisans | - Sans règles européennes uniformes, la CSAM ne peut être combattue efficacement - Les fournisseurs doivent prendre leurs responsabilités - Des moyens techniques sont nécessaires pour traquer les délinquants |
| Arguments des critiques | - Risque de surveillance généralisée de tous les citoyens - affaiblissement du cryptage de bout en bout („client-side-scanning“) - Nombre élevé de fausses alertes possibles et de faux soupçons - Création d'une infrastructure de surveillance permanente, politiquement extensible |
| Conséquences pour les citoyens | - Les communications privées pourraient être contrôlées de manière (partiellement) automatisée - Incertitude quant aux contenus sensibles (photos, documents, chats) - Risque de faux soupçons et de stockage de données |
| Conséquences pour les PME | - La communication avec les clients via des services numérisés n'est plus entièrement privée - Conflits possibles avec la protection des données et les secrets commerciaux - Besoin d'adaptation dans le choix et l'utilisation des canaux de communication |
Digital Services Act (DSA) - Règles pour les plateformes et leurs obligations en matière de suppression des données
Avec le Loi sur les services numériques (DSA) l'UE a mis en place un ensemble complet de règles qui ont déjà été adoptées en 2022. Il s'adresse principalement aux services numériques - hébergeurs, plateformes, moteurs de recherche - dans le but de rendre l'Internet plus sûr, plus transparent et plus équitable. Parmi les principales obligations figurent
- Les fournisseurs doivent Systèmes de notification et de recours mettre en place des outils permettant aux utilisateurs de signaler des contenus illégaux (par exemple, discours de haine, propagande terroriste, fraude).
- Les plateformes doivent réagir, c'est-à-dire Supprimer le contenu ou bloquer l'accès, Les autorités compétentes sont tenues d'informer le public de l'existence d'un contenu illégal dès qu'elles en ont connaissance.
- Pour les „très grandes“ plates-formes (par ex. plus de 45 millions d'utilisateurs dans l'UE), soit des exigences plus strictes s'appliquent : analyses de risques, audit des algorithmes de recommandation, divulgation des pratiques de modération.
- Obligations de transparenceLes utilisateurs doivent mieux comprendre pourquoi un contenu a été supprimé ou bloqué ; les plateformes doivent en rendre compte.
Pour la vie quotidienne d'une personne, cela signifie que si vous publiez des contributions sur des plateformes - par exemple sur des réseaux sociaux ou des forums -, les plateformes devront à l'avenir prendre des décisions plus strictes. En cas de doute, les contenus pourraient être supprimés plus rapidement.
Pour une petite entreprise, cela signifie que si votre site web, votre forum ou votre plate-forme comporte des contributions interactives d'utilisateurs, vous devez examiner attentivement les conditions d'utilisation, les procédures de notification et les processus de suppression. Même si vous ne faites pas partie des très grandes plateformes, une pression indirecte peut s'exercer, notamment par le biais de directives sur la manière dont les utilisateurs doivent être protégés contre les contenus nuisibles.
| Aspect | Description |
|---|---|
| Nom | Loi sur les services numériques (DSA) - Règlement (UE) 2022/2065 |
| Objectif principal selon l'UE | - Un espace numérique sécurisé pour les utilisateurs - Protection des droits fondamentaux en ligne - Un cadre réglementaire unique pour les services numériques dans l'UE |
| Qui est concerné en premier lieu ? | - Services de commutation (accès, mise en cache, hébergement) - Plateformes en ligne et places de marché - „Very Large Online Platforms“ (VLOPs) et moteurs de recherche à partir de 45 millions d'utilisateurs dans l'UE |
| Obligations centrales | - Voies de notification des contenus illégaux - Obligation de retrait rapide après connaissance - Rapports de transparence sur la modération - Analyse des risques et audits pour les très grandes plateformes - Coopération avec „trusted flaggers“.“ |
| Situation actuelle | - En vigueur, déjà pleinement efficace pour les grandes plateformes - La Commission engage des procédures à l'encontre de certains soumissionnaires (par exemple pour défaut de modération) |
| Arguments des partisans | - Les plateformes assument la responsabilité des risques liés à leurs services - Plus de transparence sur les pratiques de suppression et de recommandation - Meilleure protection contre la haine, la fraude, la désinformation et les offres illégales |
| Arguments des critiques | - Risque d„“overblocking" (trop de choses sont supprimées pour éviter les sanctions) - Privatisation de facto de la censure : les plateformes décident de ce qui reste visible - Notions extensibles telles que „risques systémiques“ ; le contenu politiquement sensible peut être édulcoré |
| Conséquences pour les citoyens | - Les contributions peuvent être bloquées ou rendues invisibles plus rapidement - Davantage de moyens formels pour contester les décisions - mais un coût élevé - Les bulles de filtrage ne se réduisent pas nécessairement, l'intervention se fait plutôt „d'en haut“.“ |
| Conséquences pour les PME | - Le marketing et la visibilité dépendent encore plus de l'algorithme de la plateforme - Les contenus sur des sujets sensibles (santé, politique, société) sont plus susceptibles d'être supprimés. - Les zones de commentaires propres nécessitent plus de modération et des règles claires |
European Media Freedom Act (EMFA) - la nouvelle loi sur les médias
Le site Loi européenne sur la liberté des médias (EMFA) est entré formellement en vigueur dès le 7 mai 2024 et s'appliquera pleinement à partir du 8 août 2025. Son objectif : L'UE souhaite garantir l'indépendance et la diversité des médias - c'est-à-dire les maisons d'édition, les diffuseurs, les médias en ligne - tout en créant de nouvelles règles pour la coopération entre les médias et les plateformes. Contenu important :
- Protection de l'indépendance éditoriale et des sources journalistiques.
- Transparence sur les structures de propriété des médias, afin de savoir clairement qui se trouve derrière un média.
- Réglementation de la publicité gouvernementale et comment les gouvernements peuvent influencer les médias par le biais des annonces.
Une caractéristique particulière : les fournisseurs de services médias doivent être protégés contre les plateformes, par exemple pour que leurs contenus ne soient pas simplement supprimés à volonté par les grandes plateformes.
Pour l'utilisateur, cela signifie qu'en théorie, une plus grande diversité d'opinions et de sources médiatiques pourrait voir le jour, avec un étiquetage clair et de meilleures conditions pour les médias de qualité. Toutefois, un nouveau niveau de contrôle est également créé - les plateformes devront à l'avenir faire preuve d'une vigilance particulière à l'égard des «médias reconnus».
Pour une petite entreprise qui publie du contenu (par exemple un blog, une newsletter ou un magazine en ligne), cela signifie que vous vous retrouvez dans un ordre modifié, dans lequel votre contenu peut être évalué différemment - selon que vous êtes considéré comme un „média“ ou non, et selon la manière dont les plateformes traitent ce type de contenu.
| Aspect | Description |
|---|---|
| Nom | European Media Freedom Act (EMFA) - Loi européenne sur la liberté des médias |
| Objectif principal selon l'UE | - Protection du pluralisme des médias et de l'indépendance éditoriale - Limiter l'influence politique sur les médias - Transparence sur les structures de propriété et les fonds publicitaires de l'État |
| Qui est concerné en premier lieu ? | - Entreprises de médias (presse écrite, radio, en ligne) - Établissements de droit public - Plates-formes dans le traitement des contenus médiatiques |
| Instruments centraux | - Organe européen pour les services de médias (coopération des régulateurs nationaux) - Règles relatives à la publicité et à la promotion par l'État - Traitement particulier des „médias reconnus“ par les plateformes (par exemple, traitement privilégié lors de la modération) |
| Situation actuelle | - Adopté, entrée en vigueur en 2024 - Application des dispositions essentielles à partir de 2025 |
| Arguments des partisans | - Une meilleure protection des médias sérieux contre les pressions politiques - La transparence contre l'influence cachée et la concentration des médias - Protection des décisions éditoriales contre l'ingérence des propriétaires ou des États |
| Arguments des critiques | - Risque de „privilège médiatique“ pour les fournisseurs fidèles à l'État ou établis - Les plateformes se retrouvent en conflit entre les obligations de suppression de DSA et les privilèges de l'EMFA - Les médias plus petits ou alternatifs sans statut formel pourraient être désavantagés |
| Conséquences pour les citoyens | - Le contenu visible pourrait être davantage influencé par les „médias reconnus“. - La démarcation entre les médias établis et les offres indépendantes s'accentue - Les voix plus critiques ou nouvelles peuvent avoir du mal à se faire entendre. |
| Conséquences pour les PME | - Les contenus propres (blogs, magazines, newsletters) sont en concurrence avec des environnements médiatiques privilégiés - Les coopérations avec les médias (publicité, contenu sponsorisé) sont davantage réglementées - Les entreprises qui souhaitent devenir elles-mêmes un média doivent respecter des exigences supplémentaires |
AI Act - Règles pour l'intelligence artificielle, les deepfakes & Co.
Avec le Loi sur l'intelligence artificielle (AI Act) l'UE a créé l'un des premiers textes législatifs complets au monde sur la réglementation de l'IA. Elle est conçue de manière technologiquement neutre, c'est-à-dire non seulement pour les systèmes d'IA connus aujourd'hui, mais aussi pour les développements futurs. La caractéristique principale est une approche basée sur le risque : plus le risque pour les droits fondamentaux ou la sécurité est élevé, plus les obligations sont strictes. Exemples :
- Des systèmes d'IA au risque inacceptable (par exemple, les systèmes d'évaluation sociale) peuvent être interdits.
- IA à haut risque (par exemple, les systèmes de candidature ou de biométrie) sont soumis à des règles strictes.
- Les autres systèmes d'IA doivent caractérisé Les contenus peuvent être modifiés, par exemple lorsque des contenus ont été générés de manière automatisée (par ex. deepfakes).
Pour les citoyens, cela signifie que si vous rencontrez à l'avenir un contenu, par exemple une vidéo ou un texte, qui a été créé automatiquement, il se peut que ce contenu soit marqué comme „généré par l'IA“ - afin que vous puissiez reconnaître qui ou quoi se cache derrière. Pour les entreprises, cela signifie que si vous utilisez des outils d'IA - par exemple pour le marketing, la production de documents, le service clientèle - vous devez vérifier si votre application relève d'une catégorie de risque, si des obligations d'étiquetage s'appliquent ou si des conditions doivent être remplies.
| Aspect | Description |
|---|---|
| Nom | Artificial Intelligence Act (AI Act) - Règlement de l'UE pour la régulation de l'IA |
| Objectif principal selon l'UE | - S'assurer que les systèmes d'IA sont sûrs et dignes de confiance - Protection des droits fondamentaux et des consommateurs - Promouvoir l'innovation selon des règles du jeu claires |
| Qui est concerné en premier lieu ? | - Fournisseurs et exploitants de systèmes d'IA (de la start-up à la grande entreprise) - Utilisateurs intégrant l'IA dans des produits ou des services - Spécifique : fabricants d„“IA à haut risque“ |
| Catégories de risques | - IA interdite (par exemple, certaines formes d'évaluation sociale) - IA à haut risque (par ex. systèmes biométriques, certaines aides à la décision) - IA avec obligations de transparence (par ex. chatbots, deepfakes) - IA à risque minimal (par ex. outils simples sans atteinte profonde aux droits) |
| Obligations centrales | - Évaluation des risques et documentation - Identification du contenu généré par l'IA dans certains cas - Exigences de qualité et de données pour l'IA à haut risque - Transparence vis-à-vis des utilisateurs (p. ex. „vous parlez à une IA“) |
| Situation actuelle | - Adopté, entre en vigueur progressivement - Certaines obligations sont déjà en vigueur, d'autres suivront dans des délais transitoires |
| Arguments des partisans | - Protection contre les systèmes d'IA non transparents, inéquitables ou dangereux - Établissement de la confiance : Les utilisateurs savent quand l'IA est en jeu - Normes minimales de qualité et de sécurité des données |
| Arguments des critiques | - Complexité et bureaucratie, en particulier pour les petits fournisseurs - Incertitude quant à savoir si une application est „à haut risque“ ou non - Risque que l'innovation et le développement de l'IA se déplacent vers des régions moins réglementées - Obstacles à l'utilisation de l'IA par les PME |
| Conséquences pour les citoyens | - Plus de marquage des contenus IA (textes, images, vidéos) - Une meilleure protection pour les décisions automatisées, mais aussi plus de formalités - Utilisation plus consciente de l'information „générée par la machine“. |
| Conséquences pour les PME | - Nécessité de documenter l'utilisation de l'IA (interne et externe) - Obligations d'étiquetage possibles dans le cadre du marketing ou du contact avec la clientèle - Le cas échéant, besoin de conseils pour classer correctement les risques et les obligations - Une bonne préparation permet néanmoins d'utiliser l'IA comme avantage concurrentiel |
Une chronologie des principales étapes
2022-2023 : La phase des grandes propositions
Au cours de cette phase, plusieurs propositions clés ont été officiellement présentées : le Digital Services Act (DSA), le Regulation to Prevent and Combat Child Sexual Abuse (CSAR, également appelé „Chat Control“) et le European Media Freedom Act (EMFA).
- Sur le site Mai 2022 la Commission européenne a présenté la proposition CSAR afin de lutter contre les représentations en ligne d'abus sexuels sur des enfants.
- Sur le site 23 avril 2022 un accord politique a été trouvé entre le Parlement et le Conseil sur l'initiative DSA.
- Sur le site Juin/décembre 2023 des négociations et des accords ont été conclus sur le projet EMFA.
Conseil européen
C'est donc à ce stade que le terrain de jeu a été tracé : l'UE a décidé qu'il fallait des règles numériques plus complètes.
2024 : les premières lois entrent en vigueur
En 2024, la phase de mise en œuvre a commencé : certaines réglementations ont été adoptées, d'autres préparent leur application.
- Le site DSA est entrée formellement en vigueur (règlement (UE) 2022/2065) et de nombreux services ont dû se préparer à la conformité.
- Le site EMFA a été formellement adoptée (par exemple, le 26 mars 2024 par le Conseil) et les objectifs de mise en œuvre ont été fixés.
- Sur le site CSAR en revanche, la situation reste incertaine : le temps nécessaire à la prise d'une décision définitive a été prolongé à plusieurs reprises. Par exemple, la mesure intérimaire a été prolongée jusqu'au 3 avril 2026.
Cette phase a été marquée par des périodes de transition, des préparatifs et des débats politiques - l'horloge tourne, mais tout n'est pas encore actif.
2025 : la phase décisive
En 2025, d'importants choix seront faits.
- Le site Obligations DSA pour les très grandes plateformes („VLOP“) interviennent de plus en plus ; les délais arrivent à échéance.
- Le site EMFA s'applique pleinement - de nombreuses dispositions doivent s'appliquer à partir d'une date de référence.
- Sur le site CSAR une décision se dessine : Certains Etats membres ont annoncé leur opposition, les votes ont été reportés ou bloqués.
Pour les citoyens et les entreprises, cela devient plus sensible : il ne s'agit plus seulement d'un „projet de loi“, mais d'une „réglementation à laquelle il faut s'adapter“.
2026 et au-delà : ce qui est prévisible
Même au-delà de 2025, les étapes suivantes sont pertinentes. Des normes techniques supplémentaires s'appliqueront peut-être encore à l'ASD : la Commission européenne surveille la mise en œuvre et l'impact. Pour le CSAR, un règlement définitif peut suivre - ou la proposition peut être considérablement modifiée ou reportée. Pour l'EMFA, d'autres dispositions spéciales s'appliqueront, par exemple en ce qui concerne la coopération entre les plateformes médiatiques, les interfaces ou la publicité.
En règle générale, plus l'infrastructure numérique devient complexe (IA, plateformes, communication), plus on s'attend à un besoin de réglementation. Pour le lecteur, cela signifie que le sujet n'est pas clos - il fait partie de notre quotidien numérique. Il est donc judicieux de se préparer et d'être attentif.
LA LIBERTE D'OPINION EN DANGER : EU Digital Services Act | Chaîne d'information WELT
Qu'est-ce que cela signifie pour les petites et moyennes entreprises ?
Pour des groupes comme Meta, Google ou Microsoft, il existe des départements juridiques, des équipes de protection des données et des responsables de la conformité. Les petites et moyennes entreprises (PME) n'ont généralement pas cela. Pourtant, les nouvelles réglementations européennes les concernent aussi, parfois directement, souvent indirectement par le biais des plateformes, des outils et des canaux de communication utilisés.
Nous nous intéressons ici à ce que ces évolutions peuvent signifier concrètement pour les petites entreprises : de l'entreprise unipersonnelle à la moyenne entreprise de 50 ou 200 collaborateurs.
Plus de règles en arrière-plan - même si on ne les voit pas tout de suite
De nombreuses nouvelles règles - par exemple dans le Digital Services Act (DSA) ou l'AI Act - s'adressent officiellement surtout aux „très grandes“ plates-formes ou à certains fournisseurs d'IA. Néanmoins, les conséquences se répercutent sur les petites entreprises :
- sur les plateformes sur lesquelles ils font de la publicité ou publient du contenu,
- sur les outils qu'ils utilisent (par exemple, les systèmes d'intelligence artificielle, les logiciels de newsletter, les systèmes de chat),
- et sur les obligations en matière de communication qui commencent à s'imposer même aux petits fournisseurs.
Exemple : la DSA oblige les plateformes en ligne à supprimer efficacement les contenus illégaux et à instaurer la transparence. Pour les petites entreprises qui atteignent leurs clients via Facebook, Instagram, YouTube ou les places de marché des plateformes, cela signifie que les contenus peuvent être supprimés ou restreints plus rapidement qu'auparavant - même si elles respectent elles-mêmes la loi et le droit.
Effets concrets dans le quotidien d'une PME
1. les colonnes de commentaires, les forums et les évaluations des clients
De nombreuses entreprises utilisent aujourd'hui :
- Article de blog avec zone de commentaires
- Forums ou communautés de soutien
- Fonctions d'évaluation ou livres d'or
- Canaux de médias sociaux avec commentaires
Avec les nouvelles règles, la pression augmente pour garder un œil sur le contenu des utilisateurs :
- Plaintes doivent être prises au sérieux et examinées.
- Manifestement, contenu illicite devraient être enlevés rapidement afin de ne pas être confrontés à des problèmes de responsabilité.
- Plateformes même réagissent de manière plus sensible : une shitstorm avec des contenus limites peut entraîner plus rapidement des blocages, une perte de portée ou des blocages.
- Les partisans disentC'est utile, car cela permet de définir clairement les responsabilités. Celui qui offre une scène publique (même un petit forum) doit empêcher les abus. Pour les fournisseurs sérieux, ce n'est pas un inconvénient, mais un gage de qualité.
- Les critiques s'y opposentLes petites entreprises n'ont ni le temps ni le personnel pour évaluer les commentaires d'un point de vue juridique ou pour les préparer en vue d'une modération. Elles craignent de désactiver complètement les fonctions de commentaires par peur des problèmes - ce qui appauvrit encore davantage l'échange ouvert sur le réseau.
2. les canaux de communication : E-mail, Messenger et „Chatcontrol“.“
Le projet de règlement sur la lutte contre les abus sexuels sur les enfants (CSAR, „Chatcontrol“) vise formellement les fournisseurs de services de communication qui doivent rechercher et signaler les abus. Pour les PME classiques, cela ne signifie pas qu'elles doivent immédiatement créer leurs propres scanners 1TP12. Mais :
- Beaucoup utilisent des services de messagerie (WhatsApp, Signal, Teams, Slack, etc.), tant en interne que dans la communication avec les clients.
- Si, à l'avenir, ces services Scanner le contenu (ou doivent être scannées), la communication d'entreprise n'est potentiellement plus aussi confidentielle que ce à quoi on était habitué jusqu'à présent.
- Particulièrement délicat: Fichiers, documents de projets, brouillons, confidentiels, qui passent par de tels canaux.
- Les partisans argumententSans de telles mesures, la lutte contre les abus sur les enfants en ligne n'est guère possible. Les entreprises qui travaillent proprement n'auraient rien à craindre - au contraire, elles profiteraient d'un environnement numérique plus sûr.
- Les critiques rétorquentLa mise en œuvre technique (par ex. „Client-Side-Scanning“) peut pratiquement annuler le cryptage et créer une infrastructure qui permettrait de contrôler tout type de contenu - aujourd'hui des abus, demain éventuellement des thèmes politiques ou économiques. Les secrets commerciaux et les données des clients seraient menacés, car des interfaces supplémentaires seraient créées, par lesquelles les données pourraient s'échapper ou être utilisées à mauvais escient. Les fausses alertes (faux soupçons) peuvent nuire à la réputation des entreprises et des employés, sans que l'on ait réellement fait quelque chose de mal.
3. l'IA dans l'entreprise : Étiquetage, documentation et responsabilité
Avec l'AI Act, l'UE introduit un cadre basé sur les risques : Différentes obligations s'appliquent en fonction du domaine d'utilisation. Pour les PME, trois domaines sont particulièrement pertinents :
- Marketing et communicationSi des textes, des images ou des vidéos sont générés par l'IA - par exemple des articles de blog, des posts sur les médias sociaux ou des images de produits - des obligations d'étiquetage peuvent s'appliquer (par exemple „Ce contenu a été créé avec l'aide de l'IA“), en particulier lorsqu'il s'agit de domaines politiquement sensibles ou de deepfakes.
- Service client et processus de décision: Les chatbots ou les systèmes de décision automatisés (scoring, sélection des candidats, évaluation des risques) peuvent, selon leur degré d'évolution, entrer dans la catégorie „IA à haut risque“, avec des obligations strictes en matière de documentation et de transparence.
- Outils et analyses internes: même si des fournisseurs externes intègrent des fonctions d'IA (par ex. systèmes CRM, comptabilité, ERP), l'entreprise peut être mise en cause si elle prend des décisions sur la base de recommandations de l'IA.
- Les partisans disentL'AI Act protège les clients et les citoyens contre les décisions opaques ou inéquitables. Il oblige les fournisseurs à faire preuve de diligence, de qualité et de transparence - ce qui, au final, profite également aux PME sérieuses qui utilisent l'IA de manière responsable.
- Les critiques soulignentPour les petites entreprises, les réglementations deviennent vite confuses. Elles ne savent souvent pas si leur utilisation de l'IA relève déjà du domaine réglementé ou non. Le risque existe que les PME préfèrent ne pas se lancer dans l'IA par manque d'assurance - et s'accommodent ainsi d'un désavantage en matière d'innovation par rapport aux grandes entreprises. Dans la pratique, les obligations de documentation et d'étiquetage pourraient se transformer en un monstre de bureaucratie dont il serait difficile d'avoir une vue d'ensemble sans conseil spécialisé.
4. risques de réputation : visibilité, blocages et „pression algorithmique“.“
Avec la DSA, les plateformes sont davantage contraintes : elles doivent montrer qu'elles luttent sérieusement contre des risques tels que la désinformation, le discours de haine ou les contenus juridiquement problématiques. Pour les entreprises, cela signifie
- Contenu touchant à des sujets controversés (santé, politique, sécurité, crises, société), peuvent être déclassés plus rapidement - donc recevoir moins de visibilité.
- Les comptes peuvent être temporairement bloqué, contributions supprimé ou des campagnes publicitaires bloque devenir des plateformes lorsque des „risques“ sont perçus - même si le contenu n'est pas clairement illégal.
- La frontière entre critique légitime et „contenu problématique“La notion de "contenu" devient donc plus floue - et est dans la pratique entre les mains de l'animateur de la plate-forme concernée.
- Les partisans argumententLes plateformes doivent prendre leurs responsabilités. Sans mécanismes efficaces, les fausses informations et l'incitation à la haine resteraient sans frein. Les entreprises qui fournissent des contenus sérieux ont davantage à y gagner à long terme : un environnement plus propre et une confiance accrue.
- Les critiques voient par contren : Une forte tendance à l'overblocking : par peur des amendes, les plateformes préfèrent supprimer trop de contenus plutôt que pas assez.
Cela peut affecter les petites entreprises qui ont besoin de visibilité, mais qui n'ont pas de lobby pour contester les décisions.
La „pression des algorithmes“ conduit à adapter les contenus à de prétendues directives afin de ne pas se faire remarquer négativement - ce qui équivaut à une autocensure insidieuse.
Sondage actuel sur le projet d'euro numérique
Qui décide de ce qui est „information“ et de ce qui est „désinformation“ ?
Lorsque l'on regarde les nouvelles réglementations de l'UE, un mot revient sans cesse : Désinformation. Elle doit être combattue, que ce soit par des obligations de plateforme, des évaluations de risques ou des interventions algorithmiques. Mais le point crucial est rarement exprimé : Qui définit ce qu'est la désinformation ?
Cette question est centrale, car c'est elle qui détermine si les mesures de protection protègent réellement - ou si elles conduisent involontairement à un contrôle des débats publics. En théorie, cela semble simple :
- Fausses affirmations = Désinformation,
- déclarations correctes = Information.
Dans la pratique, cependant, le monde est rarement aussi clair. De nombreux sujets sont complexes, flous, controversés ou en constante évolution. Les études changent, les experts se disputent, de nouveaux faits apparaissent. Ce qui est considéré comme faux un jour peut soudainement être réévalué le lendemain - il suffit de penser aux prévisions politiques, aux débats sur la santé ou aux nouveaux risques technologiques.
C'est pourquoi de nombreux critiques mettent en garde contre le fait de traiter la „désinformation“ comme un concept fixe. Ils soulignent qu'il s'agit souvent moins d'un état de fait clair que d'une interprétation influencée par la situation politique ou sociale du moment.
Les plateformes prennent des décisions pratiques - mais sous pression
Formellement, ce sont les plateformes qui doivent décider si quelque chose est potentiellement de la désinformation, car elles sont tenues responsables des risques en vertu du Digital Services Act. Mais les plateformes n'agissent pas en vase clos. Elles sont soumises à plusieurs types de pressions :
- Pression légale: amendes élevées si les „risques“ ne sont pas suffisamment réduits.
- Pression politiqueattente de donner plus ou moins de poids à certains récits.
- Pression publique: campagnes, indignations, rapports médiatiques qui influencent les décisions de modération.
- Pression financièreLa modération indépendante coûte du temps, de l'argent et du personnel - les solutions automatisées sont moins chères, mais souvent plus sujettes aux erreurs.
Dans ces conditions, les plateformes ont tendance à préférer supprimer ou restreindre trop plutôt que pas assez en cas de doute. Elles décident ainsi de facto de ce qui reste visible - même si elles ne sont pas le véritable législateur.
Le rôle des gouvernements et des autorités
Un autre point est que les gouvernements ou les organismes publics sont de plus en plus impliqués dans ces processus - par exemple sous la forme de :
- „Trusted Flaggers“
- Points d'information
- Centres de conseil pour les plates-formes
- Évaluations des „risques systémiques“
Il en résulte un système dans lequel les institutions étatiques peuvent influencer indirectement les contenus qui sont considérés comme problématiques. Cela n'est pas nécessairement abusif - mais cela crée une structure susceptible de faire l'objet d'abus si d'autres majorités politiques prévalent par la suite.
Le risque d'un „déplacement du dicible“
Lorsque les plateformes trient les contenus sur la base de notions vagues telles que la „manipulation“, les „risques sociaux“ ou la „désinformation“, un décalage culturel se produit à long terme :
- Les gens s'expriment avec plus de prudence, les entreprises évitent certains sujets, les voix critiques perdent en visibilité.
- Il n'en résulte pas une interdiction ouverte - mais une invisibilité insidieuse. Les contenus ne disparaissent pas, mais ils n'atteignent plus grand monde.
De nombreux critiques n'y voient pas une censure ciblée, mais un effet secondaire tout aussi efficace : le dicible se déplace, tout simplement parce que chaque acteur doit apprendre ce qui est „souhaitable“ ou „sans contrainte“ de la part des plates-formes.
Qui parle de désinformation doit aussi parler de pouvoir.
Car aujourd'hui, la décision de savoir ce qui est vrai, faux, admissible ou dangereux ne relève plus seulement de la science, du journalisme ou du débat démocratique, mais de plus en plus d'une forme mixte de ces trois domaines :
- Plateformes
- Algorithmes
- Organismes gouvernementaux
- Équipes de modération
- des auditeurs externes
- et de la pression sociale
C'est précisément pour cette raison qu'il est important de considérer cette évolution non seulement d'un point de vue technique ou juridique, mais aussi culturel. Car au final, il s'agit de quelque chose de très fondamental : dans quelle mesure une société peut-elle parler librement si personne ne peut plus dire clairement qui décide du vrai et du faux - et selon quels critères ?
La loi européenne censure l'Internet (DSA - Digital Services Act) | Christian Rieck, professeur
Partisans vs. détracteurs - la confrontation
Pour mettre en évidence les tensions, il vaut la peine de les confronter directement. Ce que les partisans soulignent
- Sécurité et protectionLes enfants, les consommateurs, les processus démocratiques - tout cela a besoin d'un bouclier juridique moderne.
- Clarté juridique : des règles uniformes au sein de l'UE épargnent aux entreprises le patchwork de voies nationales particulières. Celles qui s'en tiennent à des directives claires sont moins exposées à l'insécurité juridique.
- ÉquitéLes grandes plateformes et les fournisseurs d'IA ne doivent pas être des „free riders“ qui empochent des bénéfices et se déchargent des risques sur la société. Des réglementations telles que la DSA et l'AI Act permettraient de mettre de l'ordre dans ce domaine.
- ConfianceA plus long terme, la confiance dans les services numériques devrait augmenter si les utilisateurs savent que des règles s'appliquent et sont surveillées.
Ce que les critiques soulignent
- Risques liés aux droits fondamentauxChatcontrol et autres mesures similaires créent une infrastructure technique qui permettrait à l'avenir de surveiller toute communication numérique, même au-delà de son objectif initial.
- Surcharge bureaucratiqueLes petites entreprises n'ont ni les ressources ni le savoir-faire nécessaires pour remplir proprement et durablement le catalogue croissant d'obligations (étiquetage, documentation, modération, voies de notification).
- Censure privatiséeLes amendes élevées transforment les plateformes en „shérifs auxiliaires“ qui, en cas de doute, suppriment plus que nécessaire - au détriment de la liberté d'expression et de la diversité du débat. Les PME qui vivent de la portée peuvent perdre sans avertissement.
- Obstacle à l'innovationAu lieu de tenter des expériences, de nombreuses petites entreprises se freinent parce qu'elles ont peur de faire quelque chose de mal. Celui qui ne risque rien n'enfreint pas non plus - mais reste sur place.
- Déplacement du pouvoirEn fin de compte, ce sont ceux qui peuvent le mieux utiliser le cadre réglementaire qui s'imposent - les grands groupes avec un service juridique et des équipes de conformité. Les petites entreprises doivent se plier à leurs règles du jeu, car elles dépendent de leur infrastructure.
Conclusion du point de vue d'une petite ou moyenne entreprise
Pour une PME normale, le plus important
- Connaître les bases sans se perdre dans tous les détails.
- Examiner ses propres canaux de communication (commentaires, médias sociaux, newsletter, messageries) et décider consciemment de ce dont on a vraiment besoin - et où l'on réduit consciemment.
- Documenter l'utilisation de l'IA et, en cas de doute, préférer communiquer ouvertement plutôt que de se retrouver plus tard dans l'obligation de s'expliquer.
- Rester calme, mais être attentif : il ne sert à rien de ne rien faire à cause des lois. L'important est de réfléchir étape par étape : „Où cela me concerne-t-il vraiment ?“ - et d'y trouver des solutions solides.
La principale préoccupation des critiques peut se résumer en une phrase : Ce n'est pas la loi individuelle qui pose problème, mais l'interaction de nombreuses règles qui crée petit à petit un environnement numérique dans lequel le contrôle et la conformité sont récompensés - et où les voix indépendantes et critiques ont plus de mal à s'exprimer.
Que reste-t-il pour les citoyens ordinaires et les petites entreprises ?
Si l'on considère tous ces développements, il est clair que l'UE tente de mettre de l'ordre dans un monde numérique qui s'est développé pendant de nombreuses années en grande partie sans être réglementé. Les objectifs semblent compréhensibles sur le papier - protection, sécurité, transparence. Mais en même temps, un réseau dense de réglementations, de mécanismes de contrôle et d'exigences techniques se met en place, qui s'étend lentement mais sensiblement autour de notre quotidien numérique.
Pour les grands groupes, c'est une question de ressources. Ils embauchent des juristes, adaptent leurs processus, investissent dans de nouveaux outils. Pour les citoyens ordinaires et les petites ou moyennes entreprises, en revanche, cette évolution se sent souvent confuse, parfois même menaçante - non pas parce que l'on a quelque chose à cacher, mais parce que l'on pressent que la nature de la communication numérique est en train de changer.
Ce dont les citoyens ordinaires doivent tenir compte
- Rester vigilant sans s'affoler. Il n'y a pas besoin de panique, mais d'une prise de conscience saine du fait que la communication dans l'espace numérique est de plus en plus observée et filtrée - pas nécessairement par des personnes, mais par des systèmes, des algorithmes et des contrôles automatisés.
- Gérer ses propres canaux d'information. Plus les contenus sont filtrés et triés, plus il est important d'utiliser consciemment différentes sources d'information. Pas seulement les réseaux sociaux, mais aussi les médias classiques, les portails spécialisés ou les newsletters indépendantes.
- Communiquer en toute conscience. Il n'est pas nécessaire d'écrire publiquement toutes ses pensées. Mais il est utile de se rendre compte qu'en cas de doute, les plates-formes préfèrent supprimer plutôt que de laisser les choses en l'état. Cela ne veut pas dire qu'il faut se rabaisser, mais il faut comprendre comment fonctionnent les mécanismes.
- Ne pas faire confiance à toutes les IA - mais il ne faut pas non plus en avoir peur. Si à l'avenir, les contenus sont identifiés comme générés par l'IA, cela peut aider à ne pas tout prendre pour argent comptant. En même temps, il ne faut pas se laisser dissuader d'utiliser les outils d'IA à bon escient - avec discernement.
Ce dont les petites et moyennes entreprises doivent tenir compte
- Structurer consciemment la communication et la présence sur la plate-forme. Zones de commentaires, forums d'assistance, canaux de médias sociaux - tout cela peut être utile, mais doit être bien géré. La nouvelle réglementation oblige à prendre des responsabilités, mais cela peut être géré de manière professionnelle.
- Documenter l'utilisation de l'IA. Tous les outils ne sont pas problématiques, mais les entreprises devraient savoir où l'IA est utilisée - et le communiquer ouvertement en cas de doute. Cela permet d'instaurer la confiance et d'éviter les malentendus.
- Créer des règles internes claires. Quel contenu publier ? Qui examine les plaintes ? Quelles sont les plates-formes que l'on utilise vraiment activement ? Une structure claire permet d'éviter bien des incertitudes.
- Ne pas perdre son chemin. Les petites entreprises vivent justement de leur personnalité, de leur signature et de leur relation directe avec les clients. Aucune loi n'oblige à perdre cela. Au contraire, dans un monde rempli de processus automatisés, une véritable humanité apparaît aujourd'hui presque comme un avantage concurrentiel.
Une dernière pensée
L'avenir numérique sera marqué par des règles. C'est inévitable - et nécessaire dans de nombreux domaines. Mais ce qui est décisif, c'est la manière dont nous les gérons en tant que citoyens et entrepreneurs. Celui qui reste informé, qui communique en connaissance de cause et qui ne se laisse pas intimider par des termes compliqués, garde sa liberté - même dans un environnement plus réglementé.
C'est peut-être là le véritable message : ne pas faire aveuglément confiance, ne pas rejeter aveuglément. Mais comprendre les choses, les classer - et décider ensuite soi-même de la voie à suivre.
Foire aux questions
- Que veut exactement l'UE avec ces nouvelles lois numériques ?
L'UE souhaite rendre l'Internet plus sûr, lutter contre les abus, endiguer la diffusion de contenus illégaux et accroître la transparence des médias et des services numériques. L'idée sous-jacente est que le cadre juridique actuel ne suffit plus, car les services numériques ont aujourd'hui un impact énorme sur la société et la démocratie. Si les objectifs semblent compréhensibles, les moyens prévus pour y parvenir sont vastes et parfois controversés. - Pourquoi certains parlent-ils de „lois sur la censure“ alors que l'UE le conteste ?
Le terme naît de la crainte que des amendes élevées et des définitions peu claires („risques systémiques“, „désinformation“) ne conduisent les plateformes à supprimer des contenus à titre préventif. Il en résulte de fait une forme privatisée de censure, même si elle n'est pas officiellement désignée comme telle. Pour les critiques, le problème ne réside pas tant dans le texte de loi lui-même que dans la manière dont les plateformes y réagissent. - Qu'est-ce qui rend Chatcontrol ou CSAR si controversé ?
Parce que cette loi permet une recherche potentiellement automatisée des communications privées. Techniquement, cela signifie souvent un „client-side-scanning“, dans lequel le contenu est examiné avant d'être crypté. Les critiques disent : cela crée une infrastructure qui pourrait en principe surveiller toutes les communications - que l'on fasse quelque chose d'interdit ou non. - Chatcontrol est-il déjà décidé ?
Non. Il y a une opposition massive, surtout de la part de l'Allemagne et d'autres pays de l'UE. Le projet est politiquement bloqué et certaines parties ont été remaniées à plusieurs reprises. Mais il n'est pas non plus abandonné - il continue de planer au-dessus des négociations. - Que signifie le Digital Services Act (DSA) pour les gens ordinaires ?
Les messages, commentaires ou publications sur les grandes plateformes peuvent être supprimés plus rapidement si les plateformes considèrent quelque chose comme potentiellement illégal ou risqué. Les utilisateurs doivent s'attendre à ce que le „filtre“ algorithmique se resserre. En même temps, il y a plus de droits de transparence - on apprend plus facilement pourquoi une contribution a été bloquée. - Comment la DSA affecte-t-elle les petites et moyennes entreprises ?
Les entreprises qui utilisent les médias sociaux, autorisent les commentaires sur les blogs ou utilisent des plateformes de boutiques en ligne sont indirectement concernées. Leurs contenus peuvent être plus facilement soumis à des restrictions - et elles doivent être plus attentives à leur propre modération. Des erreurs dans les colonnes de commentaires ou les forums peuvent entraîner des problèmes juridiques. - Que régit la nouvelle loi sur la liberté des médias (LEMT) ?
Elle vise à protéger l'indépendance et la diversité des médias. Les plateformes ne peuvent pas rétrograder ou bloquer des médias reconnus sans raison valable. Les critiques craignent toutefois que cela ne crée une sorte de hiérarchie des médias, dans laquelle les médias établis sont favorisés et les voix alternatives défavorisées. - Une entreprise peut-elle perdre une visibilité „privilégiée“ à cause de l'EMFA ?
Oui - pas directement, mais indirectement. Le contenu des petits blogs ou des sites web d'entreprise est en concurrence avec les „médias reconnus“, dont la visibilité est protégée par des algorithmes. Cela peut signifier que les contenus d'entreprises apparaissent moins en vue sur les plateformes, car celles-ci doivent appliquer des stratégies de modération plus prudentes pour les médias. - Qu'est-ce que l'AI Act change pour les citoyens ?
De nombreux contenus d'IA - images, textes, vidéos - devront à l'avenir être marqués comme étant générés par l'IA. Cela doit créer de la transparence afin que l'on puisse reconnaître si l'auteur est un être humain ou un algorithme. Cela joue un rôle important, en particulier pour les sujets politiques ou susceptibles d'être manipulés. - Et que signifie l'AI Act pour les entreprises ?
Les entreprises doivent vérifier si et comment elles utilisent l'IA : dans le marketing, le service à la clientèle ou en interne. Selon le niveau de risque, elles doivent documenter, marquer ou expliquer comment l'IA est utilisée. Cela peut représenter un effort supplémentaire, mais à long terme, cela protège également contre les problèmes juridiques. - Pourquoi la combinaison de toutes ces lois est-elle si critique ?
Parce que chaque loi a sa propre fonction, mais que c'est leur interaction qui renforce leur impact : surveillance des communications privées (CSAR), contrôle accru des plateformes (DSA), hiérarchisation des médias (EMFA) et obligations d'étiquetage de l'IA (AI Act). Les critiques disent que cela crée un environnement dans lequel le contrôle, la conformité et la prudence dominent, avec des conséquences pour le débat, la créativité et la liberté. - Quels conseils les experts donnent-ils aux citoyens ordinaires pour faire face à ces changements ?
Rester calme, mais attentif. Soigner ses propres canaux d'information, ne pas tout confier à une seule plate-forme et gérer consciemment les contenus privés ou sensibles. Il est important de comprendre que la communication numérique n'est plus modérée de manière „neutre“, mais qu'elle est de plus en plus régie par des règles. - Comment les citoyens peuvent-ils se défendre contre les mauvaises décisions prises par les plateformes ?
Le DSA donne de nouveaux droits : on peut contester les décisions de modération, déposer des plaintes et demander une justification. C'est un progrès - mais cela demande du temps, de la persévérance et parfois un soutien juridique. - Que devraient concrètement préparer les petites entreprises dans les années à venir ?
Elles devraient créer des règles internes claires pour la communication, mieux contrôler les zones de commentaires, documenter l'utilisation de l'IA et vérifier quelles sont les plateformes dont elles ont vraiment besoin. Il vaut la peine de ne pas rendre public tout ce qui peut être réglé en interne. - Qui fait partie des critiques sérieuses de ces lois ?
Patrick Breyer (Parlement européen), European Digital Rights (EDRi), l'application de messagerie Signal, des chercheurs en sécurité informatique ainsi que de nombreux juristes spécialisés dans les médias. Leurs critiques sont moins basées sur l'idéologie que sur des préoccupations techniques et relatives à l'État de droit. - Toutes ces lois ont-elles pour but ultime la censure ?
Cela dépend à qui on pose la question. Les partisans disent : il s'agit de sécurité et d'ordre. Les critiques disent : même si la „censure“ n'est pas inscrite dans la loi, il en résulte une limitation de fait de la visibilité et de la liberté par le biais des obligations, des sanctions et de l'aversion au risque. La vérité se situe probablement quelque part entre les deux - mais la tendance est claire : les espaces de communication sont davantage réglementés. - Ces nouvelles règles sont-elles dangereuses pour la démocratie ?
Pas nécessairement en soi - mais elles peuvent le devenir si elles sont mal mises en œuvre ou étendues politiquement par la suite. La démocratie se nourrit de débats ouverts, de critiques et de diversité. Si les plateformes suppriment trop de choses par peur ou si les voies de communication sont surveillées, cela peut affaiblir la culture démocratique. - Comment une entreprise ou un citoyen doit-il réagir à long terme ?
Le mieux est d'avoir un mélange de sérénité informée et de préparation pratique. Il ne faut pas se laisser intimider, mais il ne faut pas non plus être naïf. Si l'on choisit intelligemment ses canaux de communication, que l'on fait preuve de transparence et que l'on protège ses propres données, on reste capable d'agir - même dans un environnement qui devient plus réglementé.






