Le nuove leggi sulla censura dell'UE: Cosa significano Chatcontrol, DSA, EMFA e la legge sull'IA

In un mondo sempre più digitalizzato, passiamo molto tempo online: Chiacchieriamo, facciamo acquisti, lavoriamo, ci informiamo. Allo stesso tempo, le regole su come i contenuti vengono condivisi, moderati o controllati stanno cambiando. Il Digital Services Act (DSA), l'European Media Freedom Act (EMFA), il previsto regolamento per la prevenzione e la lotta contro gli abusi sessuali sui minori (CSAR, spesso definito „controllo delle chat“) e l'AI Act sono i principali atti legislativi proposti dall'Unione europea (UE) per regolamentare l'ambiente digitale.

Queste norme possono sembrare lontane a prima vista, ma hanno un impatto su di voi come privati e sulle piccole e medie imprese. Questo articolo vi guiderà passo dopo passo: dalla domanda „Che cosa è previsto?“ al contesto e alle tempistiche, fino a un cambio di prospettiva: che cosa significa per voi nella vostra vita quotidiana?


Problemi sociali del presente

Nella prima parte, diamo uno sguardo a ciò che è effettivamente previsto, ai principali progetti legislativi attualmente in discussione o già approvati e alle ragioni della loro creazione.

Cosa sta progettando l'UE: una semplice panoramica

L'UE lo ha riconosciuto negli ultimi anni: Internet sta cambiando rapidamente. Piattaforme con milioni o miliardi di utenti, intelligenza artificiale, nuove forme di comunicazione - molti quadri giuridici risalgono ai decenni precedenti. L'UE ritiene che ci sia molto da recuperare: vuole rendere lo spazio digitale più sicuro, proteggere i diritti fondamentali e creare condizioni eque, sia per gli utenti che per le aziende. Ad esempio, la DSA afferma che:

„L'obiettivo è creare uno spazio digitale più sicuro, in cui i diritti fondamentali di tutti gli utenti dei servizi digitali siano tutelati“.“

Poiché sono stati lanciati diversi progetti legislativi in parallelo, si ha l'impressione che „molte cose vengano regolamentate allo stesso tempo“ - e questo crea incertezza, soprattutto per chi non ha a che fare quotidianamente con il diritto digitale.

Gli obiettivi principali secondo l'UE

Gli obiettivi più importanti di questi pacchetti legislativi possono essere riassunti come segue:

  • Protezione contro gli abusiAd esempio, l'UE vuole utilizzare il Progettazione CSAR garantire che le rappresentazioni di abusi sessuali su minori (CSAM) siano riconosciute e cancellate più rapidamente online.
  • Protezione contro la disinformazione, le interferenze elettorali e i rischi socialiAl DSA afferma esplicitamente che il suo scopo è quello di limitare la diffusione di contenuti illegali e altri rischi, tra le altre cose.
  • Pluralismo dei media, trasparenza e concorrenza lealeCon l'EMFA, l'UE sta cercando di regolamentare più strettamente il panorama dei media per limitare l'influenza e la concentrazione.
  • Regole per l'intelligenza artificiale e requisiti di etichettaturaL'AI Act intende garantire che i sistemi di IA e il loro contenuto siano trasparenti in futuro, ad esempio nel caso di deepfakes o di decisioni automatizzate.
  • Condizioni eque per le aziendeOltre a proteggere gli utenti, l'UE vuole anche chiarezza e parità di trattamento. Regole del gioco per i fornitori (ad esempio, le piattaforme). Uno degli obiettivi della DSA è quello di creare un „insieme standardizzato di regole e condizioni competitive per le aziende“.

A che punto siamo oggi?

La situazione attuale può essere riassunta come segue:

  • Con il DSAI regolamenti sono già stati adottato, I fornitori con un numero molto elevato di utenti („Piattaforme online molto grandi“) sono soggetti a regole particolarmente severe a partire dal 2023/24.
  • Con CSAR („Chatcontrol“)La proposta è stata presentata dalla Commissione europea nel 2022. Tuttavia, molti Stati membri e organizzazioni per la protezione dei dati e delle libertà civili stanno forte critica. Quindi non è ancora definitivo.
  • Con la legge sull'EMFA e l'AIL'EMFA è stato formalmente adottato e si applicherà a partire da determinate date. La legge sull'AI è in vigore, ma molti obblighi sono scaglionati.

Importante: anche se le leggi sono state approvate, ciò non significa che tutti i requisiti siano immediatamente applicabili: spesso ci sono periodi di transizione, eccezioni o implementazioni tecniche ancora aperte. In questa prima parte abbiamo quindi analizzato i regolamenti in vigore, gli obiettivi dell'UE e la situazione attuale. Nel prossimo capitolo esamineremo nello specifico le singole leggi principali - in termini semplici, in modo che risulti chiaro: „Che cos'è esattamente?“.“


Sondaggio in corso sulla prevista carta d'identità digitale dell'UE

Accettereste un'identità digitale centralizzata a livello europeo?

Controllo della chat / CSAR - Monitoraggio delle comunicazioni private

Nel 2022, il Regolamento per la prevenzione e la lotta contro gli abusi sessuali sui minori (CSAR) della Commissione Europea ha presentato la proposta che molti considerano „Controllo della chat“ si chiama. Il nocciolo della questione: i fornitori di servizi di messaggeria, di piattaforme di chat o di altri servizi di comunicazione digitale devono essere obbligati a cercare, segnalare e cancellare i contenuti di abusi sessuali su minori (CSAM).

L'idea alla base è comprensibile: Il materiale abusivo online è un problema serio e le leggi nazionali da sole non sono sempre efficaci. requisiti standard standardizzati.

Ma è qui che inizia la controversia: Perché alcune versioni della proposta prevedono che le comunicazioni possano essere cercate anche se sono crittografate end-to-end. In termini quotidiani, ciò significa che le vostre chat, immagini o video privati potrebbero essere analizzati tecnicamente, prima che il servizio di messaggistica li cripti o li inoltri. I critici parlano di sorveglianza di massa.

La tecnologia è sofisticata e rischiosa: come è possibile riconoscere realmente il materiale utilizzato in modo improprio senza rischiare di sbagliare la diagnosi? Come garantire la protezione e la crittografia dei dati? A Studio mostra che i falsi positivi possono essere elevati, soprattutto con la scansione lato client.

In breve, la proposta combina un legittimo mandato di protezione con notevoli rischi per i diritti fondamentali. Per i cittadini, ciò significa che in futuro le comunicazioni private potrebbero essere soggette a controlli più severi, anche se non hanno nulla a che fare con un uso improprio. Per le piccole imprese, ciò significa che se gestite canali di messaggeria o di comunicazione con i clienti, dovrete prepararvi all'eventualità di nuovi obblighi legali o verifiche tecniche.

Aspetto Descrizione del
Nome Regolamento per prevenire e combattere gli abusi sessuali sui minori (CSAR), colloquialmente noto come „controllo delle chat“.“
Obiettivo principale secondo l'UE Prevenire, segnalare e cancellare la diffusione online di materiale pedopornografico (CSAM); istituire un centro di segnalazione dell'UE.
Chi è il principale interessato? Fornitori di servizi di comunicazione (messenger, chat, piattaforme di hosting, servizi cloud), in alcuni casi anche di comunicazioni criptate.
Strumenti centrali - Scansione (parziale) dei contenuti alla ricerca di modelli noti di abuso
- Obblighi di comunicazione alle autorità/centro UE
- Misure di monitoraggio obbligatorie o „volontarie“, a seconda della classificazione del rischio.
Stato attuale - Proposta di regolamento in fase di negoziazione dal 2022
- Forte opposizione da parte di diversi Stati membri e di organizzazioni per i diritti civili.
- Testi di compromesso con scansione „volontaria“ in discussione
Argomenti a favore - Senza norme UE armonizzate, la CSAM non può essere combattuta efficacemente
- I fornitori devono assumersi la responsabilità
- Sono necessari mezzi tecnici per rintracciare i trasgressori
Argomenti dei critici - Pericolo di sorveglianza generalizzata di tutti i cittadini
- Indebolimento della crittografia end-to-end („client-side scanning“)
- Alto numero di possibili falsi allarmi e falsi sospetti
- Creazione di un'infrastruttura di monitoraggio permanente che sia politicamente espandibile
Conseguenze per i cittadini - La comunicazione privata potrebbe essere controllata (parzialmente) in modo automatico
- Incertezza con i contenuti sensibili (foto, documenti, chat)
- Rischio di falsi sospetti e conservazione dei dati
Conseguenze per le PMI - La comunicazione dei clienti attraverso i servizi di scansione non è più completamente privata
- Possibili conflitti con la protezione dei dati e dei segreti commerciali
- Necessità di personalizzazione nella scelta e nell'utilizzo dei canali di comunicazione

Digital Services Act (DSA) - regole per le piattaforme e i loro obblighi di cancellazione

Con il Legge sui servizi digitali (DSA) l'UE ha creato una serie completa di regole che è stata adottata nel 2022. Si rivolge principalmente ai servizi digitali - fornitori di hosting, piattaforme, motori di ricerca - con l'obiettivo di rendere Internet più sicuro, trasparente ed equo. Gli obblighi più importanti includono

  • I fornitori devono Sistemi di segnalazione e rimedio per consentire agli utenti di segnalare contenuti illegali (ad es. incitamento all'odio, propaganda terroristica, frode).
  • Le piattaforme devono rispondere a questa esigenza, cioè Cancellare i contenuti o bloccare l'accesso, se vengono a conoscenza di contenuti illegali.
  • Per le piattaforme „molto grandi (ad esempio, oltre 45 milioni di utenti dell'UE), si applicano requisiti più severi: Analisi dei rischi, audit degli algoritmi di raccomandazione, divulgazione delle pratiche di moderazione.
  • Obblighi di trasparenzaGli utenti dovrebbero capire meglio perché i contenuti sono stati cancellati o bloccati; le piattaforme devono riferire in merito.

Per la vita quotidiana di una persona, questo significa che se si pubblicano articoli sulle piattaforme - ad esempio sui social network o sui forum - le piattaforme dovranno prendere decisioni più severe in futuro. In caso di dubbio, i contenuti potrebbero essere rimossi più rapidamente.

Per una piccola azienda, questo significa che se il vostro sito web, forum o piattaforma prevede contributi interattivi da parte degli utenti, dovete controllare attentamente i termini di utilizzo, le procedure di segnalazione e i processi di cancellazione. Anche se non siete una delle grandi piattaforme, possono sorgere pressioni indirette, soprattutto attraverso le linee guida su come proteggere gli utenti dai contenuti dannosi.

Aspetto Descrizione del
Nome Legge sui servizi digitali (DSA) - Regolamento (UE) 2022/2065
Obiettivo principale secondo l'UE - Spazio digitale sicuro per gli utenti
- Protezione dei diritti fondamentali online
- Un insieme standardizzato di regole per i servizi digitali nell'UE
Chi è il principale interessato? - Servizi di commutazione (accesso, caching, hosting)
- Piattaforme e mercati online
- „Piattaforme online molto grandi“ (VLOP) e motori di ricerca con 45 milioni di utenti UE o più
Compiti centrali - Canali di segnalazione di contenuti illegali
- Obbligo di rimozione rapida dopo la conoscenza
- Rapporti di trasparenza sulla moderazione
- Analisi dei rischi e audit per piattaforme di grandi dimensioni
- Cooperazione con i „segnalatori di fiducia“
Stato attuale - In vigore, già pienamente efficace per le grandi piattaforme
- La Commissione conduce procedimenti contro singoli provider (ad esempio, a causa di una moderazione inadeguata).
Argomenti a favore - Le piattaforme si assumono la responsabilità dei rischi dei loro servizi
- Maggiore trasparenza sulle pratiche di cancellazione e raccomandazione
- Migliore protezione contro l'odio, le frodi, la disinformazione e le offerte illegali
Argomenti dei critici - Pericolo di „overblocking“ (si cancella troppo per evitare penalizzazioni)
- Privatizzazione di fatto della censura: le piattaforme decidono cosa resta visibile
- Termini flessibili come „rischi sistemici“; i contenuti politicamente sensibili possono essere sfrondati
Conseguenze per i cittadini - I post possono essere bloccati o resi invisibili più rapidamente
- Modalità più formali per contestare le decisioni, ma con maggiore impegno
- Le bolle di filtraggio non si riducono necessariamente, l'intervento è piuttosto „dall'alto“.“
Conseguenze per le PMI - Il marketing e la visibilità dipendono ancora di più dall'algoritmo della piattaforma.
- I contenuti su argomenti sensibili (salute, politica, società) hanno maggiori probabilità di essere eliminati.
- Aree di commento separate richiedono un maggiore sforzo di moderazione e regole chiare.

European Media Freedom Act (EMFA) - la nuova legge sui media

Il Legge europea sulla libertà dei media (EMFA) è entrato formalmente in vigore il 7 maggio 2024 e si applicherà integralmente a partire dall'8 agosto 2025: L'UE vuole salvaguardare l'indipendenza e la diversità dei media - case editrici, emittenti, media online - e allo stesso tempo creare nuove regole per la cooperazione tra media e piattaforme. Contenuti importanti:

  • Protezione dell'indipendenza editoriale e delle fonti giornalistiche.
  • Trasparenza sulle strutture proprietarie dei media, in modo che sia chiaro chi sta dietro a un mezzo di comunicazione.
  • La regolamentazione della pubblicità governativa e il modo in cui i governi possono influenzare i media attraverso le pubblicità.

Una caratteristica particolare: i fornitori di servizi di media dovrebbero essere protetti dalle piattaforme, ad esempio per evitare che i loro contenuti vengano semplicemente soppressi a piacimento dalle grandi piattaforme.

Per l'utente, ciò significa che teoricamente potrebbe emergere una maggiore diversità di opinioni e fonti mediatiche, con un'etichettatura chiara e migliori condizioni per i media di qualità. Tuttavia, ci sarà anche un nuovo livello di controllo: in futuro le piattaforme dovranno prestare particolare attenzione ai «media riconosciuti».

Per una piccola azienda che pubblica contenuti (ad esempio un blog, una newsletter o una rivista online), ciò significa che vi troverete in un ordine diverso in cui i vostri contenuti possono essere valutati in modo diverso - a seconda che siate considerati o meno un „medium“ e di come le piattaforme trattino tali contenuti.

Aspetto Descrizione del
Nome European Media Freedom Act (EMFA) - Legge europea sulla libertà dei media
Obiettivo principale secondo l'UE - Protezione del pluralismo dei media e dell'indipendenza editoriale
- Limitare l'influenza politica sui media
- Trasparenza sulle strutture proprietarie e sui fondi pubblicitari statali
Chi è il principale interessato? - Società di media (stampa, radiodiffusione, online)
- Istituzioni di diritto pubblico
- Piattaforme per la gestione dei contenuti multimediali
Strumenti centrali - Organismo europeo per i servizi dei media (cooperazione dei regolatori nazionali)
- Regole per la pubblicità e la promozione statale
- Trattamento speciale dei „media riconosciuti“ da parte delle piattaforme (ad esempio, trattamento privilegiato durante la moderazione)
Stato attuale - Adottato, entrata in vigore nel 2024
- Validità delle principali disposizioni a partire dal 2025
Argomenti a favore - Migliore protezione dei media affidabili dalle pressioni politiche
- Trasparenza contro l'influenza occulta e la concentrazione dei media
- Protezione delle decisioni editoriali dalle interferenze dei proprietari o degli Stati
Argomenti dei critici - Pericolo di un „privilegio mediatico“ per i fornitori statali o consolidati
- Le piattaforme entrano in conflitto tra gli obblighi di cancellazione dei DSA e i privilegi dell'EMFA
- I media più piccoli o alternativi privi di uno status formale potrebbero essere penalizzati
Conseguenze per i cittadini - I contenuti visibili potrebbero essere maggiormente caratterizzati da „media riconosciuti“.
- La demarcazione tra media affermati e offerte indipendenti sta diventando sempre più netta
- Le voci più critiche o nuove possono avere maggiori difficoltà a raggiungere il pubblico.
Conseguenze per le PMI - I contenuti propri (blog, riviste, newsletter) competono con ambienti mediatici privilegiati
- Le collaborazioni con i media (pubblicità, contenuti sponsorizzati) sono regolate in modo più rigoroso
- Le aziende che vogliono agire da sole come mezzo di comunicazione devono soddisfare ulteriori requisiti

AI Act - regole per l'intelligenza artificiale, deepfakes & co.

Con il Legge sull'intelligenza artificiale (legge AI) l'UE ha creato uno dei primi atti legislativi completi al mondo sulla regolamentazione dell'IA. È stata progettata per essere neutrale dal punto di vista tecnologico, cioè non solo per i sistemi di IA attualmente conosciuti, ma anche per gli sviluppi futuri. La caratteristica principale è un approccio basato sul rischio: più alto è il rischio per i diritti fondamentali o la sicurezza, più severi sono gli obblighi. Esempi:

  • Sistemi di intelligenza artificiale con rischi inaccettabili (ad esempio, i sistemi di rating sociale) possono essere vietati.
  • IA ad alto rischio (ad esempio, sistemi applicativi o biometrici) sono soggetti a requisiti rigorosi.
  • Altri sistemi di intelligenza artificiale devono etichettato ad esempio, se il contenuto è stato generato automaticamente (ad esempio, deepfakes).

Per i cittadini, questo significa che se in futuro vi imbatterete in un contenuto, come un video o un testo creato automaticamente, questo contenuto potrà essere etichettato come „generato dall'IA“, in modo da poter riconoscere chi o cosa c'è dietro. Per le aziende, ciò significa che se si utilizzano strumenti di IA - ad esempio nel marketing, nella produzione di documenti, nel servizio clienti - è necessario verificare se l'applicazione rientra in una categoria di rischio, se si applicano obblighi di etichettatura o se è necessario soddisfare dei requisiti.

Aspetto Descrizione del
Nome Legge sull'intelligenza artificiale (AI Act) - Regolamento UE sulla regolamentazione dell'IA
Obiettivo principale secondo l'UE - Garantire la sicurezza e l'affidabilità dei sistemi di IA
- Protezione dei diritti fondamentali e dei consumatori
- Promuovere l'innovazione con regole chiare
Chi è il principale interessato? - Fornitori e operatori di sistemi di IA (dalle start-up alle grandi aziende)
- Utenti che integrano l'IA in prodotti o servizi
- In particolare: produttori di „IA ad alto rischio“.“
Categorie di rischio - IA vietata (ad es. alcune forme di giudizio sociale)
- IA ad alto rischio (ad es. sistemi biometrici, determinati supporti decisionali)
- IA con obblighi di trasparenza (ad es. chatbot, deepfakes)
- IA a rischio minimo (ad es. strumenti semplici senza interventi profondi sui diritti)
Compiti centrali - Valutazione del rischio e documentazione
- Etichettatura dei contenuti generati dall'IA in alcuni casi
- Requisiti di qualità e dati per l'IA ad alto rischio
- Trasparenza verso gli utenti (ad es. „Stai parlando con un'intelligenza artificiale“)
Stato attuale - Adottato, entra in vigore per gradi
- Singoli obblighi sono già in vigore, altri seguiranno nei periodi transitori
Argomenti a favore - Protezione contro sistemi di IA non trasparenti, sleali o pericolosi
- Creare fiducia: Gli utenti sanno quando l'intelligenza artificiale è in gioco
- Standard minimi di qualità e sicurezza dei dati
Argomenti dei critici - Complessità e burocrazia, soprattutto per i piccoli fornitori
- Incertezza sul fatto che un'applicazione sia o meno „ad alto rischio“.
- Rischio di spostamento dell'innovazione e dello sviluppo dell'IA in regioni meno regolamentate
- Soglia di inibizione per l'utilizzo dell'IA da parte delle PMI
Conseguenze per i cittadini - Maggiore etichettatura dei contenuti AI (testi, immagini, video)
- Maggiore protezione per le decisioni automatizzate, ma anche maggiore formalità
- Gestione più consapevole delle informazioni „generate dalla macchina
Conseguenze per le PMI - Necessità di documentare l'uso dell'IA (internamente ed esternamente)
- Possibili obblighi di etichettatura nel marketing o nei contatti con i clienti
- Può essere necessaria una consulenza per classificare correttamente i rischi e gli obblighi.
- Chi è ben preparato può ancora utilizzare l'IA come vantaggio competitivo

Una tabella di marcia delle fasi più importanti

2022-2023: La fase delle principali proposte

Durante questa fase, sono state introdotte ufficialmente diverse proposte chiave: la legge sui servizi digitali (DSA), il regolamento per la prevenzione e la lotta contro gli abusi sessuali sui minori (CSAR, noto anche come „Chat Control“) e la legge europea sulla libertà dei media (EMFA).

  • Nel Maggio 2022 la Commissione europea ha presentato la proposta CSAR per combattere le rappresentazioni online di abusi sessuali su minori.
  • Su 23 aprile 2022 è stato raggiunto un accordo politico tra il Parlamento e il Consiglio sull'iniziativa DSA.
  • Nel Giugno/dicembre 2023 negoziati e sono stati raggiunti accordi sulla bozza dell'EMFA.
    Consiglio europeo

Il campo di gioco è stato quindi delimitato in questa fase: l'UE ha deciso che erano necessarie regole digitali più complete.

2024: Entrano in vigore le prime leggi

La fase di attuazione è iniziata nel 2024: alcuni regolamenti sono stati adottati, altri sono in fase di preparazione per l'applicazione.

  • Il DSA è entrato formalmente in vigore (Regolamento (UE) 2022/2065) e molti servizi hanno dovuto prepararsi per la conformità.
  • Il EMFA è stato formalmente adottato (ad esempio il 26 marzo 2024 dal Consiglio) e sono stati fissati gli obiettivi di attuazione.
  • Al CSAR Tuttavia, la situazione rimane incerta: il tempo che manca alla decisione finale è stato prorogato più volte. Ad esempio, la misura provvisoria è stata prorogata fino al 3 aprile 2026.

Questa fase è stata caratterizzata da periodi di transizione, preparativi e dispute politiche: il tempo scorre, ma non tutto è ancora attivo.

2025: la fase decisiva

Nel 2025 si dovranno prendere decisioni importanti.

  • Il Compiti del DSA per le piattaforme di grandi dimensioni („VLOP“) stanno entrando sempre più in vigore; i termini stanno scadendo.
  • Il EMFA è pienamente applicabile - molte disposizioni si applicano a partire da una data limite.
  • Al CSAR una decisione è all'orizzonte: Alcuni Stati membri hanno annunciato resistenza, le votazioni sono state rinviate o bloccate.

Per i cittadini e le imprese, sta diventando più tangibile: non più solo „progetti di legge“, ma „norme a cui ci si deve adeguare“.

2026 e oltre: cosa succederà probabilmente

Le fasi seguenti sono rilevanti anche dopo il 2025. Ulteriori standard tecnici possono ancora essere applicati ai DSA: la Commissione europea sta monitorando l'attuazione e l'impatto. Per il CSAR potrebbe seguire un regolamento definitivo, oppure la proposta potrebbe essere significativamente modificata o rinviata. Ulteriori disposizioni speciali si applicheranno all'EMFA, ad esempio in materia di cooperazione tra piattaforme mediatiche, interfacce o pubblicità.

In generale, più l'infrastruttura digitale diventa complessa (IA, piattaforme, comunicazione), più si prevede che sia necessaria una regolamentazione. Per il lettore, questo significa che l'argomento non è chiuso: diventerà parte della nostra vita digitale quotidiana. È quindi consigliabile prepararsi e prestare attenzione.


LIBERTÀ DI OPINIONE A RISCHIO: Legge sui servizi digitali dell'UE. Canale di notizie WELT

Cosa significa questo per le piccole e medie imprese?

Aziende come Meta, Google e Microsoft dispongono di uffici legali, team per la protezione dei dati e responsabili della conformità. Le piccole e medie imprese (PMI) generalmente non lo fanno. Tuttavia, i nuovi regolamenti dell'UE riguardano anche loro, a volte direttamente, spesso indirettamente attraverso le piattaforme, gli strumenti e i canali di comunicazione utilizzati.

La sezione seguente esamina cosa possono significare concretamente questi sviluppi per le aziende più piccole: dalle imprese individuali alle PMI con 50 o 200 dipendenti.

Altre regole in background - anche se non le vedete subito

Molte delle nuove norme, ad esempio quelle contenute nel Digital Services Act (DSA) o nell'AI Act, sono ufficialmente rivolte principalmente alle piattaforme „molto grandi“ o a determinati fornitori di AI. Tuttavia, le conseguenze si ripercuotono sulle aziende più piccole:

  • sulle piattaforme su cui fanno pubblicità o pubblicano contenuti,
  • sugli strumenti che utilizzano (ad esempio, sistemi di intelligenza artificiale, software di newsletter, sistemi di chat),
  • e sugli obblighi di comunicazione che stanno gradualmente emergendo anche per i fornitori più piccoli.

Esempio: la DSA obbliga le piattaforme online a rimuovere in modo efficiente i contenuti illegali e a creare trasparenza. Per le piccole aziende che raggiungono i clienti tramite Facebook, Instagram, YouTube o i marketplace delle piattaforme, ciò significa che i contenuti possono essere cancellati o limitati più rapidamente di prima, anche se esse stesse rispettano la legge.

Effetti concreti nella vita quotidiana di una PMI

1. rubriche di commenti, forum e valutazioni dei clienti

Molte aziende oggi utilizzano:

  • Articolo di blog con sezione commenti
  • Forum o comunità di supporto
  • Funzioni di valutazione o libri degli ospiti
  • Canali di social media con commenti

Le nuove regole aumentano la pressione per tenere sotto controllo i contenuti degli utenti:

  • Reclami devono essere presi sul serio e controllati.
  • Ovviamente contenuti illegali devono essere rimossi rapidamente per evitare problemi di responsabilità.
  • Piattaforme reagiscono in modo più sensibile: una shitstorm con contenuti borderline può portare più rapidamente a ban, perdita di reach o blocchi.
  • I sostenitori diconoQuesto ha senso perché crea chiare responsabilità. Chiunque offra una piattaforma pubblica (anche un piccolo forum) deve prevenire gli abusi. Per i fornitori affidabili, questo non è uno svantaggio, ma un segno di qualità.
  • I critici sostengono che questoLe piccole aziende non hanno né il tempo né il personale per valutare legalmente i commenti o prepararli per la moderazione. Hanno paura di disattivare completamente le funzioni di commento per timore di problemi, il che impoverisce ulteriormente il dialogo aperto su Internet.

2. canali di comunicazione: E-mail, Messenger e „Chatcontrol“.“

Il regolamento previsto per la lotta contro gli abusi sui minori (CSAR, „Chatcontrol“) è formalmente rivolto ai fornitori di servizi di comunicazione che dovrebbero cercare e segnalare il materiale di abuso. Per le PMI tradizionali, questo non significa che debbano immediatamente installare i propri scanner. Ma:

  • Molti usano i servizi di messaggeria (WhatsApp, Signal, Teams, Slack, ecc.) sia internamente che nella comunicazione con i clienti.
  • Se questi servizi devono essere Contenuto della scansione (o devono scannerizzare), le comunicazioni aziendali potenzialmente non sono più così riservate come un tempo.
  • Particolarmente delicatoFile, documenti di progetto, bozze, informazioni riservate che passano attraverso questi canali.
  • I sostenitori sostengonoSenza queste misure, la lotta all'abuso di minori online sarebbe difficilmente possibile. Le aziende che lavorano in modo pulito non hanno nulla da temere, anzi, beneficiano di un ambiente digitale più sicuro.
  • I critici controbattonoL'implementazione tecnica (ad esempio, la „scansione lato client“) può praticamente scavalcare la crittografia e creare un'infrastruttura che potrebbe essere utilizzata per controllare qualsiasi tipo di contenuto: abusi oggi, forse questioni politiche o economiche domani. I segreti aziendali e i dati dei clienti sono a rischio perché vengono create ulteriori interfacce attraverso le quali i dati possono essere divulgati o utilizzati in modo improprio. I falsi allarmi (falsi sospetti) possono danneggiare la reputazione delle aziende e dei dipendenti, anche se non è stato fatto nulla di male.

3 AI in azienda: Etichettatura, documentazione e responsabilità

Con l'AI Act, l'UE introduce un quadro di riferimento basato sul rischio: Si applicano obblighi diversi a seconda dell'area di applicazione. Tre aree sono particolarmente rilevanti per le PMI:

  • Marketing e comunicazioneSe i testi, le immagini o i video sono creati con l'IA - come gli articoli di blog, i post sui social media o le immagini dei prodotti - possono essere applicati obblighi di etichettatura (ad esempio „Questo contenuto è stato creato con il supporto dell'IA“), soprattutto quando si tratta di aree politicamente sensibili o di deepfakes.
  • Servizio clienti e processi decisionaliI chatbot o i sistemi decisionali automatizzati (scoring, selezione dei candidati, valutazione del rischio) possono rientrare nella categoria „IA ad alto rischio“, a seconda delle loro caratteristiche, con obblighi rigorosi di documentazione e trasparenza.
  • Strumenti e analisi interneAnche se fornitori esterni integrano funzioni di IA (ad esempio sistemi CRM, contabilità, ERP), l'azienda può essere ritenuta responsabile se prende decisioni basate su raccomandazioni di IA.
  • I sostenitori diconoL'AI Act protegge i clienti e i cittadini da decisioni opache o ingiuste. Costringe i fornitori a prestare attenzione, qualità e trasparenza, a tutto vantaggio delle PMI affidabili che utilizzano l'IA in modo responsabile.
  • I critici sottolineanoPer le aziende più piccole, le normative diventano rapidamente confuse. Spesso non sanno se il loro utilizzo dell'IA rientra già nell'area regolamentata o meno. C'è il rischio che le PMI preferiscano non avventurarsi affatto nell'IA a causa dell'incertezza, accettando così uno svantaggio in termini di innovazione rispetto alle aziende più grandi. In pratica, gli obblighi di documentazione ed etichettatura potrebbero diventare un mostro burocratico di cui è quasi impossibile tenere traccia senza una consulenza specializzata.

4. rischi di reputazione: visibilità, blocco e „pressione degli algoritmi“.“

La DSA sottopone le piattaforme a una maggiore pressione: devono dimostrare di combattere seriamente rischi quali la disinformazione, l'incitamento all'odio o i contenuti giuridicamente problematici. Per le aziende, ciò significa

  • Contenuti che toccano argomenti controversi (salute, politica, sicurezza, crisi, società) possono essere declassati più rapidamente, cioè ricevere meno visibilità.
  • I conti possono essere temporaneamente bloccato, contributi rimosso o campagne pubblicitarie bloccato quando le piattaforme vedono „rischi“, anche se il contenuto non è chiaramente illegale.
  • Il confine tra critiche legittime e „contenuti problematici“ diventa quindi più confuso e, in pratica, è nelle mani della moderazione della rispettiva piattaforma.
  • I sostenitori sostengonoLe piattaforme devono assumersi la responsabilità. Senza meccanismi efficaci, la disinformazione e l'incitamento all'odio rimarrebbero senza controllo. Le aziende che forniscono contenuti affidabili hanno più da guadagnare a lungo termine: un ambiente più pulito e una maggiore fiducia.
  • I critici, invece, vedonon: Una forte tendenza al blocco eccessivo: per paura delle multe, le piattaforme preferiscono cancellare troppo piuttosto che troppo poco.
    Questo può colpire soprattutto le aziende più piccole, che dipendono dalla visibilità ma non hanno lobby per contestare le decisioni.
    La „pressione degli algoritmi“ porta ad adattare i contenuti alle presunte linee guida per non attirare l'attenzione negativa, il che equivale a un'autocensura strisciante.

Sondaggio in corso sull'euro digitale previsto

Cosa ne pensate della prevista introduzione dell'euro digitale?

Chi decide cosa è „informazione“ e cosa è „disinformazione“?

Quando si esaminano i nuovi regolamenti dell'UE, una parola spicca sempre: Disinformazione. Essa deve essere combattuta, sia attraverso gli obblighi delle piattaforme, sia attraverso le valutazioni dei rischi o gli interventi degli algoritmi. Ma raramente viene affrontato il punto cruciale: Chi definisce cosa sia la disinformazione?

La questione è centrale, perché determina se le misure di protezione proteggono davvero - o se portano involontariamente al controllo dei dibattiti pubblici. In teoria, sembra semplice:

  • False affermazioni = Disinformazione,
  • affermazioni corrette = Informazioni.

In pratica, però, il mondo è raramente così chiaro. Molti argomenti sono complessi, poco chiari, controversi o in continua evoluzione. Gli studi cambiano, gli esperti discutono, emergono nuovi fatti. Ciò che un giorno è considerato sbagliato può essere improvvisamente rivalutato il giorno dopo: basti pensare alle previsioni politiche, ai dibattiti sulla salute o ai nuovi rischi tecnologici.

Per questo motivo molti critici mettono in guardia dal trattare la „disinformazione“ come un termine fisso. Sottolineano che spesso non si tratta tanto di fatti chiari quanto di un'interpretazione plasmata dalla rispettiva situazione politica o sociale.

Le piattaforme prendono decisioni pratiche, ma sotto pressione

Formalmente, sono le piattaforme a dover decidere se qualcosa è potenzialmente disinformazione, perché sono ritenute responsabili dei rischi ai sensi del Digital Services Act. Ma le piattaforme non agiscono nel vuoto. Sono sottoposte a diversi tipi di pressione:

  • Pressione legaleMulte elevate se i „rischi“ non sono sufficientemente ridotti.
  • Pressione politicaAspettativa di dare più o meno peso a certe narrazioni.
  • Pressione pubblicaCampagne, indignazione, rapporti dei media che influenzano le decisioni di moderazione.
  • Pressione finanziariaLa moderazione indipendente costa tempo, denaro e personale: le soluzioni automatizzate sono più economiche, ma spesso più soggette a errori.

In queste condizioni, le piattaforme tendono a cancellare o limitare troppo piuttosto che troppo poco, in caso di dubbio. Ciò significa che di fatto decidono ciò che rimane visibile, anche se non sono loro i veri legislatori.

Il ruolo dei governi e delle autorità

Un altro punto è che i governi o le agenzie statali sono sempre più coinvolti in questi processi, ad esempio sotto forma di:

  • „Segnalatori di fiducia“
  • Centri di segnalazione
  • Centri di consulenza per le piattaforme
  • Valutazione dei „rischi sistemici“

In questo modo si crea un sistema in cui le istituzioni statali possono influenzare indirettamente i contenuti che vengono classificati come problematici. Questo non deve necessariamente essere abusivo, ma crea una struttura suscettibile di abuso se in seguito prevalgono altre maggioranze politiche.

Il pericolo di uno „spostamento di ciò che si può dire“

Quando le piattaforme selezionano i contenuti sulla base di termini vaghi come „manipolazione“, „rischi sociali“ o „disinformazione“, a lungo termine si verifica un cambiamento culturale:

  • Le persone si esprimono con maggiore cautela, le aziende evitano certi argomenti, le voci critiche perdono visibilità.
  • Il risultato non è un divieto aperto, ma un'invisibilità strisciante. I contenuti non scompaiono, ma non raggiungono quasi nessuno.

Molti critici non vedono in questo una censura mirata, ma piuttosto un effetto collaterale altrettanto efficace: ciò che si può dire si sposta, semplicemente perché ogni attore deve imparare cosa è „desiderabile“ o „incriminante“ dalle piattaforme.

Chi parla di disinformazione deve parlare anche di potere.

Oggi la decisione su ciò che è vero, falso, lecito o pericoloso non spetta più solo alla scienza, al giornalismo o al dibattito democratico, ma sempre più a un mix di entrambi:

  • Piattaforme
  • Algoritmi
  • Agenzie governative
  • Gruppi di moderazione
  • revisori esterni
  • e pressione sociale

Proprio per questo è importante guardare a questo sviluppo non solo in termini tecnici o giuridici, ma anche culturali. In fondo, si tratta di qualcosa di molto fondamentale: come può una società parlare liberamente se nessuno può dire chiaramente chi decide cosa è vero e cosa è falso - e in base a quali standard?


La legge europea censura Internet (DSA - Digital Services Act). Prof Dr. Christian Rieck

Proponenti e critici: il confronto

Per rendere chiare le tensioni, vale la pena di fare un confronto diretto. Cosa sottolineano i sostenitori:

  • Sicurezza e protezioneBambini, consumatori, processi democratici: tutti hanno bisogno di un moderno scudo legale di protezione.
  • Chiarezza giuridica: le norme standardizzate nell'UE risparmiano alle aziende il mosaico di approcci nazionali specifici. Chi aderisce a linee guida chiare ha meno incertezza giuridica.
  • EquitàLe grandi piattaforme e i fornitori di IA non dovrebbero essere „free riders“ che rastrellano profitti e scaricano i rischi sulla società. Regolamenti come la DSA e l'AI Act farebbero ordine in questo ambito.
  • FiduciaA lungo termine, la fiducia nei servizi digitali dovrebbe aumentare se gli utenti sanno che le regole vengono applicate e monitorate.

Cosa sottolineano i critici:

  • Rischi legati ai diritti fondamentaliIl controllo delle chat e misure simili creano un'infrastruttura tecnica che in futuro potrebbe essere utilizzata per monitorare tutte le comunicazioni digitali, anche al di là del loro scopo originario.
  • Sovraccarico burocraticoLe piccole imprese non hanno né le risorse né il know-how per adempiere in modo adeguato e permanente al crescente catalogo di obblighi (etichettatura, documentazione, moderazione, canali di segnalazione).
  • Censura privatizzataLe multe elevate trasformano le piattaforme in „vice sceriffi“ che, in caso di dubbio, cancellano più del necessario, a scapito della libertà di espressione e della diversità del dibattito. Le PMI che prosperano grazie alla portata possono perdere senza preavviso.
  • Ostacolo all'innovazioneInvece di osare sperimentare, molte piccole imprese si rallentano perché hanno paura di sbagliare. Se non si corre il rischio, non si sbaglia, ma si resta al palo.
  • Spostamento di potenzaAlla fine prevarrà chi è in grado di gestire al meglio le norme e i regolamenti: le grandi aziende con dipartimenti legali e team di conformità. Le piccole aziende devono attenersi alle loro regole perché dipendono dalla loro infrastruttura.

Conclusioni dal punto di vista di una piccola o media impresa

La cosa più importante per una normale PMI:

  • Conoscere le basi senza perdersi in ogni dettaglio.
  • Controllate i vostri canali di comunicazione (commenti, social media, newsletter, messenger) e decidete consapevolmente di cosa avete veramente bisogno - e dove consapevolmente ridurre.
  • Documentate l'uso dell'IA e, in caso di dubbio, comunicatelo apertamente piuttosto che doverlo spiegare in seguito.
  • Mantenete la calma, ma prestate attenzione: non ha senso non fare nulla a causa di tutte le leggi. È importante pensare passo dopo passo: „Dove mi riguarda veramente?“ - e trovare soluzioni solide.

La preoccupazione principale dei critici può essere riassunta in una frase: Il problema non è la singola legge, ma l'interazione di molte regole che sta gradualmente creando un ambiente digitale in cui il controllo e il conformismo sono premiati e le voci critiche e indipendenti hanno più difficoltà.

Cosa resta ai cittadini comuni e alle piccole imprese?

Se si considerano tutti questi sviluppi, appare chiaro che l'UE sta cercando di mettere ordine in un mondo digitale che per molti anni è cresciuto in modo largamente non regolamentato. Gli obiettivi sembrano comprensibili sulla carta: protezione, sicurezza, trasparenza. Allo stesso tempo, però, una fitta rete di regolamenti, meccanismi di verifica e requisiti tecnici sta lentamente ma sensibilmente avvolgendo la nostra vita digitale quotidiana.

Per le grandi aziende è una questione di risorse. Assumono avvocati, adattano i loro processi e investono in nuovi strumenti. Per i normali cittadini e le piccole e medie imprese, invece, questo sviluppo è spesso fonte di confusione, a volte persino di minaccia, non perché abbiano qualcosa da nascondere, ma perché percepiscono che la natura della comunicazione digitale sta cambiando.

Cosa dovrebbero considerare i cittadini comuni

  1. Rimanere vigili senza impazzire. Non dobbiamo farci prendere dal panico, ma dobbiamo essere consapevoli che la comunicazione nello spazio digitale è sempre più monitorata e filtrata, non necessariamente da persone, ma da sistemi, algoritmi e controlli automatici.
  2. Mantenere i propri canali di informazione. Più i contenuti vengono filtrati e ordinati, più diventa importante utilizzare consapevolmente diverse fonti di informazione. Non solo i social network, ma anche i media tradizionali, i portali specializzati e le newsletter indipendenti.
  3. Comunicare consapevolmente. Non è necessario scrivere pubblicamente ogni pensiero. Ma è utile rendersi conto che, in caso di dubbio, le piattaforme sono più propense a cancellare che a lasciare. Questo non significa sminuirsi, ma capire come funzionano i meccanismi.
  4. Non fidatevi di tutte le IA - Ma non bisogna nemmeno averne paura. Se in futuro i contenuti saranno etichettati come generati dall'IA, questo potrà aiutare le persone a non prendere tutto per oro colato. Allo stesso tempo, non dobbiamo scoraggiarci dall'utilizzare gli strumenti di IA in modo sensato, con senso della misura.

Cosa devono considerare le piccole e medie imprese

  1. Strutturare consapevolmente la comunicazione e la presenza sulla piattaforma. Sezioni di commento, forum di supporto, canali di social media: tutti questi elementi possono essere utili, ma devono essere ben curati. Il nuovo regolamento obbliga le aziende ad assumersi delle responsabilità, ma questo può essere gestito in modo professionale.
  2. Utilizzo dell'IA per i documenti. Non tutti gli strumenti sono problematici, ma le aziende devono sapere dove viene utilizzata l'IA e comunicarlo apertamente in caso di dubbio. Questo crea fiducia e previene i malintesi.
  3. Creare regole interne chiare. Quali contenuti vengono pubblicati? Chi controlla i reclami? Quali piattaforme utilizzate attivamente? Una struttura chiara elimina molte incertezze.
  4. Non perdete la vostra strada. Le piccole aziende, in particolare, prosperano grazie alla loro personalità, al loro stile caratteristico e al rapporto diretto con i clienti. Nessuna legge le obbliga a perdere tutto questo. Al contrario, in un mondo pieno di processi automatizzati, la genuina umanità sembra oggi quasi un vantaggio competitivo.

Un ultimo pensiero

Il futuro digitale sarà caratterizzato da regole. Questo è inevitabile e necessario in molti settori. Ma il fattore decisivo è il modo in cui le affrontiamo come cittadini e imprenditori. Chi si informa, comunica consapevolmente e non si lascia intimidire da termini complicati manterrà la propria libertà, anche in un ambiente più regolamentato.

Forse è questo il vero messaggio: non fidarsi ciecamente, non rifiutare ciecamente. Piuttosto, capire le cose, classificarle e poi decidere da soli quale strada seguire.


Argomenti attuali sull'intelligenza artificiale

Domande frequenti

  1. Cosa vuole ottenere esattamente l'UE con queste nuove leggi digitali?
    L'UE vuole rendere Internet più sicuro, combattere gli abusi, frenare la diffusione di contenuti illegali e aumentare la trasparenza sui media e sui servizi digitali. L'idea alla base è che l'attuale quadro giuridico non sia più sufficiente perché i servizi digitali hanno ormai un impatto enorme sulla società e sulla democrazia. Gli obiettivi sembrano comprensibili, ma i mezzi previsti per raggiungerli sono di vasta portata e talvolta controversi.
  2. Perché alcuni parlano di „leggi di censura“, anche se l'UE lo nega?
    Il termine nasce dalla preoccupazione che multe elevate e definizioni poco chiare („rischi sistemici“, „disinformazione“) inducano le piattaforme a cancellare i contenuti come misura precauzionale. Questo crea di fatto una forma di censura privatizzata, anche se non viene ufficialmente definita tale. I critici vedono il problema non tanto nel testo legale in sé, quanto nel modo in cui le piattaforme reagiscono ad esso.
  3. Cosa rende Chatcontrol o CSAR così controverso?
    Perché questa legge consente potenzialmente la scansione automatica delle comunicazioni private. In termini tecnici, ciò significa spesso „scansione lato client“, in cui il contenuto viene controllato prima di essere crittografato. I critici sostengono che in questo modo si crea un'infrastruttura che potrebbe sostanzialmente monitorare qualsiasi comunicazione, indipendentemente dal fatto che si stia facendo qualcosa di illegale o meno.
  4. Il Chatcontrol è già stato deciso?
    No. C'è una massiccia resistenza, soprattutto da parte della Germania e di altri Paesi dell'UE. La bozza è politicamente bloccata e alcune sue parti sono state riviste più volte. Ma non è nemmeno fuori dal tavolo: continua ad aleggiare sui negoziati.
  5. Cosa significa il Digital Services Act (DSA) per la gente comune?
    I contributi, i commenti o i post sulle grandi piattaforme possono essere rimossi più rapidamente se le piattaforme classificano qualcosa come potenzialmente illegale o rischioso. Gli utenti devono essere preparati a un „filtro“ algoritmico sempre più stretto. Allo stesso tempo, ci sono più diritti di trasparenza: è più facile scoprire perché un post è stato bloccato.
  6. Come influisce la DSA sulle piccole e medie imprese?
    Le aziende che utilizzano i social media, permettono i commenti sui blog o utilizzano piattaforme di negozi online sono indirettamente interessate. I loro contenuti possono essere più facilmente soggetti a restrizioni e devono prestare maggiore attenzione alla propria moderazione. Gli errori nelle colonne dei commenti o nei forum possono portare a problemi legali.
  7. Cosa regolamenta il nuovo Media Freedom Act (EMFA)?
    L'obiettivo è proteggere l'indipendenza e la diversità dei media. Ciò significa anche che le piattaforme non possono declassare o bloccare i media riconosciuti senza un valido motivo. Tuttavia, i critici temono che questo crei una sorta di gerarchia mediatica in cui i media affermati sono favoriti e le voci alternative svantaggiate.
  8. Un'azienda può perdere la visibilità „privilegiata“ attraverso l'EMFA?
    Sì, non direttamente, ma indirettamente. I contenuti dei piccoli blog o dei siti web aziendali competono con i „media riconosciuti“, la cui visibilità è protetta dagli algoritmi. Ciò può significare che i contenuti aziendali appaiono meno in evidenza sulle piattaforme, perché queste ultime devono applicare strategie di moderazione più attente per i media.
  9. Cosa cambia per i cittadini con la legge sull'AI?
    In futuro, molti contenuti AI - immagini, testi, video - dovranno essere etichettati come generati dall'AI. Lo scopo è quello di creare trasparenza, in modo che le persone possano riconoscere se l'autore è un essere umano o un algoritmo. Ciò è particolarmente importante per gli argomenti politici o suscettibili di manipolazione.
  10. E cosa significa l'AI Act per le aziende?
    Le aziende devono verificare se e come utilizzano l'IA: nel marketing, nel servizio clienti o internamente. A seconda del livello di rischio, devono documentare, etichettare o spiegare come viene utilizzata l'IA. Questo può comportare un lavoro aggiuntivo, ma protegge anche da problemi legali a lungo termine.
  11. Perché la combinazione di tutte queste leggi è così fondamentale?
    Perché ogni legge ha la sua funzione, ma è solo quando lavorano insieme che hanno un impatto maggiore: sorveglianza delle comunicazioni private (CSAR), maggiore controllo delle piattaforme (DSA), gerarchie dei media (EMFA) e requisiti di etichettatura dell'AI (AI Act). Secondo i critici, ciò crea un ambiente in cui dominano il controllo, il conformismo e la cautela, con conseguenze per il dibattito, la creatività e la libertà.
  12. Cosa consigliano gli esperti ai cittadini comuni per affrontare questi cambiamenti?
    Rimanete calmi, ma attenti. Mantenete i vostri canali di informazione, non affidate tutto a un'unica piattaforma e gestite consapevolmente i contenuti privati o sensibili. È importante capire che la comunicazione digitale non è più moderata in modo „neutrale“, ma è sempre più controllata da regole.
  13. Come possono i cittadini difendersi dalle decisioni sbagliate prese dalle piattaforme?
    Il DSA vi conferisce nuovi diritti: potete contestare le decisioni di moderazione, presentare reclami e richiedere una motivazione. Si tratta di un progresso, ma richiede tempo, perseveranza e talvolta assistenza legale.
  14. Quali sono i preparativi specifici che le piccole imprese dovrebbero fare nei prossimi anni?
    Dovrebbero creare regole interne chiare per la comunicazione, controllare meglio le aree di commento, documentare l'utilizzo dell'IA e verificare quali piattaforme sono realmente necessarie. È opportuno non rendere pubblico tutto ciò che può essere regolato internamente.
  15. Chi sono i critici seri di queste leggi?
    Patrick Breyer (Parlamento europeo), European Digital Rights (EDRi), l'app di messaggistica Signal, ricercatori di sicurezza informatica e numerosi esperti di diritto dei media. Le loro critiche non si basano tanto sull'ideologia quanto su preoccupazioni tecniche e costituzionali.
  16. Tutte queste leggi hanno come fine ultimo la censura?
    Dipende da chi lo chiede. I sostenitori dicono che si tratta di sicurezza e ordine. I critici dicono: anche se la „censura“ non è prevista dalla legge, gli obblighi, le sanzioni e l'avversione al rischio creano di fatto una restrizione della visibilità e della libertà. La verità è probabilmente una via di mezzo, ma la tendenza è chiara: gli spazi di comunicazione stanno diventando sempre più regolamentati.
  17. Queste nuove regole sono pericolose per la democrazia?
    Non necessariamente di per sé, ma possono diventarlo se vengono implementati in modo scorretto o se vengono successivamente ampliati politicamente. La democrazia vive di dibattiti aperti, critiche e diversità. Se le piattaforme cancellano troppo per paura o se i canali di comunicazione vengono monitorati, questo può indebolire la cultura democratica.
  18. Come dovrebbe reagire un'azienda o un cittadino nel lungo periodo?
    Il modo migliore è un misto di compostezza informata e preparazione pratica. Non dovete essere intimiditi, ma nemmeno ingenui. Se scegliete saggiamente i vostri canali di comunicazione, create trasparenza e proteggete i vostri dati, rimarrete in grado di agire, anche in un ambiente che sta diventando sempre più regolamentato.

Lascia un commento