“Verum velle parum est”. Di buone volontà è pieno l’inferno, scriveva Ovidio. Negli ultimi anni l’Unione Europea ha varato una serie di normative digitali e ambientali tanto ambiziose quanto controverse. Molti osservatori denunciano che queste regole, pur nate con buone intenzioni – trasparenza, sicurezza, tutela dei minori, sostenibilità – stiano diventando liberticide: finiscono per limitare le libertà dei cittadini e danneggiare le imprese oneste, senza riuscire a fermare davvero i comportamenti scorretti che vorrebbero colpire.
Il caso dell’automotive è emblematico: politiche ecologiche rigide, come la spinta all’elettrico “ad ogni costo”, rischiano di “desertificare” l’industria europea, schiacciando interi settori per mera ideologia. Allo stesso modo, in ambito digitale, le nuove regole UE sembrano punire chi rispetta le leggi e opera in trasparenza – persone, aziende e piattaforme – distruggendone impunemente il business, mentre faticano a fermare chi agisce nell’ombra, spesso dall’estero, in modo disonesto o manipolatorio.
Quattro esempi lo dimostrano con chiarezza: la stretta sulla pubblicità politica online, la proposta di regolamento CSAR (Child Sexual Abuse Regulation), l’obbligo di verifica dell’età sui siti per adulti, e il nuovo Digital Services Act.
1. Pubblicità politica online: trasparenza o blocco totale?
Il Regolamento (UE) 2024/900 sulla trasparenza e il targeting della pubblicità politica online, approvato nel 2024 ed efficace dal 10 ottobre 2025, impone agli inserzionisti una lunga serie di obblighi: etichettare ogni inserzione politica, dichiarare il finanziatore, registrare la comunicazione in un archivio pubblico europeo e rispettare limiti severi al micro-targeting, vietando l’uso di dati sensibili come etnia, religione o orientamento sessuale.
L’obiettivo è nobile: garantire campagne elettorali trasparenti e contrastare le interferenze illecite. Ma la risposta delle grandi piattaforme è stata disastrosa.
Meta ha annunciato che dal 6 ottobre 2025 bloccherà del tutto la pubblicità politica e istituzionale a pagamento nell’Unione Europea, citando “incertezze giuridiche” e “complessità operative” legate al regolamento. Anche Google ha scelto la stessa via, vietando ogni annuncio “di propaganda politica” su tutte le sue piattaforme europee, fatta eccezione per messaggi istituzionali neutri e preventivamente autorizzati.
In pratica, invece di adattarsi alle nuove regole, i colossi digitali hanno scelto l’autotutela: niente più pubblicità politica in Europa.
Il paradosso è evidente. Proprio Meta e Google avevano già introdotto, dopo lo scandalo Cambridge Analytica, sistemi di trasparenza e verifica delle campagne politiche: archivi pubblici, identificazione degli inserzionisti, rendicontazione visibile. Tutte le principali agenzie che operano per i propri clienti su social media e piattaforme digitali – come Blacklemon, in Italia – avevano da tempo adottato tutti i protocolli di responsabilità e tracciabilità per garantire la piena conformità.
Il risultato delle nuove regole è quindi un boomerang: chi operava in modo onesto e trasparente viene penalizzato, mentre chi diffonde disinformazione attraverso canali occulti, bot, falsi profili o server esterni all’Unione continuerà indisturbato, meglio di prima.
A rimetterci saranno anche i partiti minori e i candidati indipendenti, che trovavano nei social uno strumento accessibile per comunicare in modo diretto. Ora, con il blocco totale, sopravvivono solo i grandi apparati dotati di mezzi e visibilità tradizionale. Chi oggi ha già consenso e una buona base di follower avrà un vantaggio enorme rispetto a candidati emergenti e agli “underdog” della politica.
Il blocco, poi, non colpisce solo esponenti e partiti politici, ma anche le istituzioni. Non possono fare pubblicità a pagamento i corpi intermedi (come Confindustria, Confcommercio, Coldiretti o i sindacati in generale), le aziende sanitarie nazionali, le associazioni di categoria, gli enti in generale.
In sintesi: le norme europee hanno ottenuto l’effetto opposto a quello dichiarato, riducendo il pluralismo e congelando uno dei pochi spazi democratici di comunicazione diretta tra cittadini e politica.
2. “Chat Control”: la lotta alla pedopornografia che mette a rischio la privacy di tutti
Il CSAR (Child Sexual Abuse Regulation) nasce con l’obiettivo di combattere la pedopornografia online. Ma dietro l’intento nobile si nasconde una minaccia per la privacy dei cittadini europei.
La proposta, presentata nel 2022 e ancora in discussione, prevede che le piattaforme di messaggistica possano essere obbligate a scansionare i contenuti delle chat private — anche se protette da crittografia end-to-end — alla ricerca di materiale sospetto.
Questa tecnologia, chiamata client-side scanning, significa che i messaggi e le immagini verrebbero analizzati direttamente sul dispositivo dell’utente prima della cifratura, cioè prima che diventino illeggibili anche per il fornitore del servizio.
Il risultato sarebbe un controllo preventivo di ogni conversazione privata: una sorveglianza di massa, giustificata con la lotta ai pedofili ma applicata indiscriminatamente a tutti.
Le autorità europee per la protezione dei dati (EDPB e EDPS) hanno espresso forti critiche, definendo la scansione generalizzata incompatibile con i diritti fondamentali. E la Corte Europea dei Diritti dell’Uomo, nel caso Podchasov v. Russia (2024), ha stabilito che qualsiasi misura che neutralizzi la cifratura delle comunicazioni viola il diritto alla vita privata sancito dalla Convenzione Europea.
Oltre al profilo giuridico, c’è quello tecnico: questi sistemi producono un alto tasso di falsi positivi e sono facilmente aggirabili da chi vuole davvero nascondersi. In pratica, rischiano di colpire milioni di utenti innocenti e di non fermare affatto i criminali.
Molti esperti e organizzazioni per i diritti digitali parlano apertamente di deriva orwelliana: un’infrastruttura di controllo preventiva che, una volta creata, potrebbe essere estesa a qualsiasi altro ambito. Oggi si cercano contenuti pedopornografici, domani chi decide cosa può o non può essere scansionato?
La lotta alla criminalità non può diventare il cavallo di Troia per la fine della privacy.
3. Siti per adulti e verifica dell’età: una censura che premia l’illegalità
Nel 2023, il cosiddetto Decreto Caivano (convertito in Legge 159/2023) ha introdotto in Italia l’obbligo di verificare la maggiore età degli utenti per accedere ai siti con contenuti pornografici.
L’AGCOM ha definito le modalità tecniche con la Delibera 96/25/CONS: dal 18 ottobre 2025, ogni piattaforma dovrà impedire l’accesso ai minori attraverso un sistema di age verification. Si parla di soluzioni basate su SPID, Carta d’Identità Elettronica o token anonimi generati da servizi terzi.
Sulla carta, una misura di tutela. Ma nella pratica, una trappola.
Gli utenti — preoccupati per la privacy o infastiditi dalle procedure — tenderanno ad abbandonare i siti legali e regolamentati, scegliendo piattaforme pirata o server esteri dove i controlli non esistono. Oppure, più semplicemente, utilizzeranno una VPN, aggirando il blocco con un click.
Il risultato? Le aziende che rispettano la legge perderanno utenti e fatturato, mentre i siti illegali cresceranno. I minori più smaliziati continueranno ad accedere ai contenuti che si vorrebbero vietare, mentre gli altri verranno solo spinti verso percorsi ancora meno sicuri.
E intanto si apre un precedente pericoloso: oggi l’identificazione è richiesta per i siti per adulti, domani — chi lo impedisce? — potrebbe esserlo per forum, social network o persino per l’accesso alle notizie.
Sotto il vessillo della protezione dei minori, rischiamo di costruire un sistema di controllo generalizzato dell’identità digitale, dove la libertà e l’anonimato diventano eccezioni da giustificare.
4. Il Digital Services Act: la tentazione del controllo totale
Il Digital Services Act (DSA), entrato in vigore nel 2023, è la nuova “costituzione digitale” dell’Europa. Impone alle piattaforme online obblighi di moderazione, trasparenza e responsabilità per contrastare contenuti illegali, hate speech e disinformazione.
Sulla carta è un passo avanti. Nella pratica, molti osservatori lo considerano uno strumento di censura selettiva.
Il DSA consente alla Commissione Europea di intimare alle piattaforme la rimozione immediata di contenuti ritenuti “illegali o disinformativi”, pena sanzioni fino al 6% del fatturato globale. Ma i confini di ciò che è “disinformazione” restano sfumati.
Alcuni deputati europei hanno denunciato che il DSA costringe le piattaforme a praticare forme di censura preventiva — dallo shadow banning alla demonetizzazione — soprattutto verso posizioni politiche minoritarie. E negli Stati Uniti, la Camera dei Rappresentanti ha definito il DSA “uno strumento orwelliano” che sopprime opinioni legittime, minacciando addirittura sanzioni contro i funzionari europei che ne applicano le disposizioni più dure.
Bruxelles respinge le accuse, sostenendo che la legge protegge la libertà di parola contrastando solo i contenuti illegali. Ma i fatti recenti — come le pressioni della Commissione su X/Twitter per rimuovere post “non conformi” — alimentano i dubbi su una possibile ingerenza politica diretta nei flussi informativi.
Quando un commissario può ordinare a un’azienda privata di cancellare contenuti in base a criteri discrezionali, non siamo più nella sfera della regolamentazione: siamo di fronte a un potere di censura istituzionalizzato.
5. Un caso scuola da cui la UE non ha imparato nulla: la Cookie policy e il consenso “a tappeto” che avvantaggia di fatto chi opera nell’illegalità
Le norme su privacy e tracciamento (GDPR, Regolamento (UE) 2016/679; Direttiva ePrivacy 2002/58/CE e attuazioni nazionali) hanno portato alla proliferazione dei banner di consenso sui cookie. L’intento era informare e responsabilizzare; l’esito è stato opposto: un mare di pop-up invasivi che gli utenti devono “accettare” prima di accedere a quasi ogni sito.
Due effetti collaterali sono diventati sistemici.
- Consent fatigue e riflesso dell’“Accetto tutto”
L’esposizione continua a richieste di consenso ha addestrato gli utenti a cliccare “ACCETTO” senza leggere. La pratica ha reso il consenso meno consapevole, più meccanico. Paradossalmente, anziché proteggere, questo ha offerto ai malintenzionati un’arma in più: l’abitudine a confermare qualsiasi cosa — incluse autorizzazioni invasive — pur di sbarazzarsi dell’ostacolo. - Esperienza d’uso peggiorata e perdita di audience
Per leggere una notizia oggi occorrono vari passaggi: scelta dei cookie, chiusura dei layer, talvolta login o paywall integrati. L’attrito accumulato scoraggia l’utente medio e aumenta l’abbandono: i siti perdono migliaia di visite per pura frizione. Un costo economico tangibile per editori e imprese che operano legittimamente.
Il punto non è “abolire il consenso”, ma renderlo proporzionato e sensato. Sarebbe stato più saggio obbligare l’avviso solo in circostanze di reale rischio per la privacy e vietare interfacce manipolative (dark patterns), invece di trasformare ogni visita in un percorso a ostacoli. La regolazione “a tappeto” ha sacrificato l’attenzione dell’utente e la qualità dell’informazione, senza impedire davvero la raccolta illecita di dati da parte di chi non rispetta le regole.
Possibile che l’Unione Europea operi in modo così maldestro? Possibile che ai burocrati di Bruxelles non arrivino gli ammonimenti e i consigli degli esperti del settore di tutto il mondo? Possibile che l’ideologia vinca sempre sulle necessità del tessuto produttivo e di chi cerca di innovare in un continente paludoso e lento? Siamo di fronte al paradosso di un’Europa che punisce gli onesti.
Dalla pubblicità politica al DSA, passando per la lotta alla pedopornografia e la verifica dell’età, emerge un quadro coerente: l’Europa sta costruendo una società digitale iper-normata, dove ogni libertà viene subordinata al controllo preventivo.
Le intenzioni sono nobili: trasparenza, tutela, sicurezza. Ma gli effetti sono spesso punitivi per chi agisce onestamente, e inutili contro chi opera fuori dalle regole.
Chi lavora in modo trasparente — agenzie di comunicazione, imprese tecnologiche, editori digitali — si trova sempre più stretto tra burocrazia, divieti e sanzioni. Chi, invece, manipola dall’esterno, resta impunito.
È una deriva che molti definiscono “liberticida”. Non nel senso di un complotto autoritario, ma per un eccesso di zelo regolatorio che confonde protezione e repressione.
La lezione, oggi più che mai, è che la libertà digitale non si difende a colpi di divieti, ma con responsabilità, cultura e trasparenza. Se l’Europa dimentica questa distinzione, rischia di trasformarsi nel più grande laboratorio di autocensura tecnologica del mondo.
