TRA LE RIGHE - SORVEGLIATI E CONSENZIENTI: IL PREZZO INVISIBILE DELLA LIBERTA' DIGITALE
TRA LE RIGHE - SORVEGLIATI E CONSENZIENTI: IL PREZZO INVISIBILE DELLA LIBERTA' DIGITALE
1 maggio 2026
A cura di
Antonio Nenna

C’è un gesto apparentemente minimo, quasi automatico, che accompagna ogni esperienza online: accettare. Accettare i cookie, accettare le condizioni, accettare senza leggere. Un’azione che dura pochi secondi ma produce effetti profondi e duraturi, incidendo non solo sulle abitudini digitali ma sulla struttura stessa della contemporaneità. Nella teoria del diritto questo resta un consenso libero e informato, mentre nella pratica è diventato una formalità necessaria per accedere alla dimensione digitale dell’esistenza.
Emerge così il primo paradosso: il consenso è ovunque, ma la consapevolezza resta rara. Oltre il 72% dei cittadini europei dichiara preoccupazione per l’uso dei propri dati personali, eppure più del 70% accetta automaticamente condizioni e informative senza leggerle. Se queste policy venissero realmente affrontate, richiederebbero oltre 8 ore annue per utente, un tempo incompatibile con la vita reale. Il sistema, dunque, non è progettato per essere compreso, ma per essere accettato. In questo scarto tra diritto e comportamento si gioca una partita decisiva. Ogni giorno vengono generate oltre 300 miliardi di e-mail, miliardi di ricerche online, interazioni social e spostamenti geolocalizzati. L’ecosistema digitale produce oltre 120 zettabyte di dati annui, con una crescita esponenziale, e un valore economico superiore ai 4.000 miliardi di dollari, rendendo i dati personali una delle risorse più preziose dell’economia contemporanea.
Ma il dato non è più solo una registrazione del passato: è una previsione del futuro. Come osserva Shoshana Zuboff, il modello economico dominante trasforma le informazioni in strumenti predittivi. Algoritmi avanzati analizzano comportamenti, relazioni e abitudini, costruendo modelli capaci di anticipare scelte individuali con margini di errore ridotti. Bastano poche centinaia di interazioni digitali per delineare un profilo psicologico accurato, spesso più preciso di quello di amici o familiari. Il dato non descrive più l’individuo, lo anticipa. E quando una scelta è prevedibile, diventa influenzabile. In questo contesto, il caso Cambridge Analytica legato a Mark Zuckerberg e Facebook ha assunto un valore paradigmatico, mostrando come i dati personali possano orientare il comportamento politico su larga scala. Circa 87 milioni di utenti sono stati coinvolti in un sistema di profilazione psicometrica capace di costruire messaggi elettorali altamente personalizzati: non più pubblicità, ma ingegneria del consenso.
La rilevanza giuridica non riguarda solo la privacy, ma il funzionamento delle democrazie. La libertà di scelta si trova in un ambiente in cui preferenze e decisioni possono essere orientate o costruite. Il diritto europeo ha tentato una risposta con il Regolamento Generale sulla Protezione dei Dati, introducendo sanzioni fino al 4% del fatturato globale, obblighi di trasparenza e diritti come accesso, cancellazione e portabilità. Dal 2018 sono stati inflitti oltre 4,5 miliardi di euro di sanzioni, ma il comportamento degli utenti non è cambiato in modo sostanziale. Il consenso continua a essere automatico, le informative restano complesse, e le piattaforme hanno integrato le sanzioni nel proprio modello economico. Il diritto interviene, ma il sistema si adatta. Anche la giurisprudenza, con la sentenza Schrems II, ha evidenziato una tensione strutturale tra norme territoriali e dati globali, incidendo su colossi come Google e Meta.
Nel frattempo, la tecnologia evolve: gli algoritmi non classificano soltanto, ma inferiscono, deducendo orientamenti politici, preferenze personali e vulnerabilità psicologica. Oltre il 60% degli utenti online è oggetto di profilazione avanzata, spesso senza consapevolezza. Il comportamento diventa pattern, i pattern previsioni, le previsioni decisioni economiche. La libertà individuale rischia così di trasformarsi in una probabilità. Le categorie del Novecento aiutano a leggere questo passaggio: Michel Foucault parlava di sorveglianza disciplinare, oggi diffusa e invisibile; Zygmunt Bauman di modernità liquida, perfetta per un sistema senza confini; George Orwell di controllo imposto, oggi accettato; Byung-Chul Han di trasparenza come esposizione volontaria. Il potere non si nasconde più, è incorporato nei processi.
Le nuove normative europee, come Digital Services Act e Digital Markets Act, cercano un equilibrio, ma il diritto procede per adattamenti mentre la tecnologia evolve per salti. E la questione torna al punto di partenza: il consenso. Può dirsi libero in condizioni di asimmetria informativa? Può dirsi informato se nessuno legge? Può dirsi scelta ciò che è progettato per essere accettato? Il rischio è evidente. Non è solo la privacy in gioco, ma la qualità della libertà. Una libertà prevedibile, orientata e modellata dagli algoritmi rischia di diventare apparente, non negata ma ridisegnata. Forse il problema non è che i dati vengano raccolti, ma che mentre li cediamo senza pensarci, stiamo cedendo qualcosa di più difficile da recuperare: la capacità stessa di scegliere davvero.
C’è un gesto apparentemente minimo, quasi automatico, che accompagna ogni esperienza online: accettare. Accettare i cookie, accettare le condizioni, accettare senza leggere. Un’azione che dura pochi secondi ma produce effetti profondi e duraturi, incidendo non solo sulle abitudini digitali ma sulla struttura stessa della contemporaneità. Nella teoria del diritto questo resta un consenso libero e informato, mentre nella pratica è diventato una formalità necessaria per accedere alla dimensione digitale dell’esistenza.
Emerge così il primo paradosso: il consenso è ovunque, ma la consapevolezza resta rara. Oltre il 72% dei cittadini europei dichiara preoccupazione per l’uso dei propri dati personali, eppure più del 70% accetta automaticamente condizioni e informative senza leggerle. Se queste policy venissero realmente affrontate, richiederebbero oltre 8 ore annue per utente, un tempo incompatibile con la vita reale. Il sistema, dunque, non è progettato per essere compreso, ma per essere accettato. In questo scarto tra diritto e comportamento si gioca una partita decisiva. Ogni giorno vengono generate oltre 300 miliardi di e-mail, miliardi di ricerche online, interazioni social e spostamenti geolocalizzati. L’ecosistema digitale produce oltre 120 zettabyte di dati annui, con una crescita esponenziale, e un valore economico superiore ai 4.000 miliardi di dollari, rendendo i dati personali una delle risorse più preziose dell’economia contemporanea.
Ma il dato non è più solo una registrazione del passato: è una previsione del futuro. Come osserva Shoshana Zuboff, il modello economico dominante trasforma le informazioni in strumenti predittivi. Algoritmi avanzati analizzano comportamenti, relazioni e abitudini, costruendo modelli capaci di anticipare scelte individuali con margini di errore ridotti. Bastano poche centinaia di interazioni digitali per delineare un profilo psicologico accurato, spesso più preciso di quello di amici o familiari. Il dato non descrive più l’individuo, lo anticipa. E quando una scelta è prevedibile, diventa influenzabile. In questo contesto, il caso Cambridge Analytica legato a Mark Zuckerberg e Facebook ha assunto un valore paradigmatico, mostrando come i dati personali possano orientare il comportamento politico su larga scala. Circa 87 milioni di utenti sono stati coinvolti in un sistema di profilazione psicometrica capace di costruire messaggi elettorali altamente personalizzati: non più pubblicità, ma ingegneria del consenso.
La rilevanza giuridica non riguarda solo la privacy, ma il funzionamento delle democrazie. La libertà di scelta si trova in un ambiente in cui preferenze e decisioni possono essere orientate o costruite. Il diritto europeo ha tentato una risposta con il Regolamento Generale sulla Protezione dei Dati, introducendo sanzioni fino al 4% del fatturato globale, obblighi di trasparenza e diritti come accesso, cancellazione e portabilità. Dal 2018 sono stati inflitti oltre 4,5 miliardi di euro di sanzioni, ma il comportamento degli utenti non è cambiato in modo sostanziale. Il consenso continua a essere automatico, le informative restano complesse, e le piattaforme hanno integrato le sanzioni nel proprio modello economico. Il diritto interviene, ma il sistema si adatta. Anche la giurisprudenza, con la sentenza Schrems II, ha evidenziato una tensione strutturale tra norme territoriali e dati globali, incidendo su colossi come Google e Meta.
Nel frattempo, la tecnologia evolve: gli algoritmi non classificano soltanto, ma inferiscono, deducendo orientamenti politici, preferenze personali e vulnerabilità psicologica. Oltre il 60% degli utenti online è oggetto di profilazione avanzata, spesso senza consapevolezza. Il comportamento diventa pattern, i pattern previsioni, le previsioni decisioni economiche. La libertà individuale rischia così di trasformarsi in una probabilità. Le categorie del Novecento aiutano a leggere questo passaggio: Michel Foucault parlava di sorveglianza disciplinare, oggi diffusa e invisibile; Zygmunt Bauman di modernità liquida, perfetta per un sistema senza confini; George Orwell di controllo imposto, oggi accettato; Byung-Chul Han di trasparenza come esposizione volontaria. Il potere non si nasconde più, è incorporato nei processi.
Le nuove normative europee, come Digital Services Act e Digital Markets Act, cercano un equilibrio, ma il diritto procede per adattamenti mentre la tecnologia evolve per salti. E la questione torna al punto di partenza: il consenso. Può dirsi libero in condizioni di asimmetria informativa? Può dirsi informato se nessuno legge? Può dirsi scelta ciò che è progettato per essere accettato? Il rischio è evidente. Non è solo la privacy in gioco, ma la qualità della libertà. Una libertà prevedibile, orientata e modellata dagli algoritmi rischia di diventare apparente, non negata ma ridisegnata. Forse il problema non è che i dati vengano raccolti, ma che mentre li cediamo senza pensarci, stiamo cedendo qualcosa di più difficile da recuperare: la capacità stessa di scegliere davvero.
C’è un gesto apparentemente minimo, quasi automatico, che accompagna ogni esperienza online: accettare. Accettare i cookie, accettare le condizioni, accettare senza leggere. Un’azione che dura pochi secondi ma produce effetti profondi e duraturi, incidendo non solo sulle abitudini digitali ma sulla struttura stessa della contemporaneità. Nella teoria del diritto questo resta un consenso libero e informato, mentre nella pratica è diventato una formalità necessaria per accedere alla dimensione digitale dell’esistenza.
Emerge così il primo paradosso: il consenso è ovunque, ma la consapevolezza resta rara. Oltre il 72% dei cittadini europei dichiara preoccupazione per l’uso dei propri dati personali, eppure più del 70% accetta automaticamente condizioni e informative senza leggerle. Se queste policy venissero realmente affrontate, richiederebbero oltre 8 ore annue per utente, un tempo incompatibile con la vita reale. Il sistema, dunque, non è progettato per essere compreso, ma per essere accettato. In questo scarto tra diritto e comportamento si gioca una partita decisiva. Ogni giorno vengono generate oltre 300 miliardi di e-mail, miliardi di ricerche online, interazioni social e spostamenti geolocalizzati. L’ecosistema digitale produce oltre 120 zettabyte di dati annui, con una crescita esponenziale, e un valore economico superiore ai 4.000 miliardi di dollari, rendendo i dati personali una delle risorse più preziose dell’economia contemporanea.
Ma il dato non è più solo una registrazione del passato: è una previsione del futuro. Come osserva Shoshana Zuboff, il modello economico dominante trasforma le informazioni in strumenti predittivi. Algoritmi avanzati analizzano comportamenti, relazioni e abitudini, costruendo modelli capaci di anticipare scelte individuali con margini di errore ridotti. Bastano poche centinaia di interazioni digitali per delineare un profilo psicologico accurato, spesso più preciso di quello di amici o familiari. Il dato non descrive più l’individuo, lo anticipa. E quando una scelta è prevedibile, diventa influenzabile. In questo contesto, il caso Cambridge Analytica legato a Mark Zuckerberg e Facebook ha assunto un valore paradigmatico, mostrando come i dati personali possano orientare il comportamento politico su larga scala. Circa 87 milioni di utenti sono stati coinvolti in un sistema di profilazione psicometrica capace di costruire messaggi elettorali altamente personalizzati: non più pubblicità, ma ingegneria del consenso.
La rilevanza giuridica non riguarda solo la privacy, ma il funzionamento delle democrazie. La libertà di scelta si trova in un ambiente in cui preferenze e decisioni possono essere orientate o costruite. Il diritto europeo ha tentato una risposta con il Regolamento Generale sulla Protezione dei Dati, introducendo sanzioni fino al 4% del fatturato globale, obblighi di trasparenza e diritti come accesso, cancellazione e portabilità. Dal 2018 sono stati inflitti oltre 4,5 miliardi di euro di sanzioni, ma il comportamento degli utenti non è cambiato in modo sostanziale. Il consenso continua a essere automatico, le informative restano complesse, e le piattaforme hanno integrato le sanzioni nel proprio modello economico. Il diritto interviene, ma il sistema si adatta. Anche la giurisprudenza, con la sentenza Schrems II, ha evidenziato una tensione strutturale tra norme territoriali e dati globali, incidendo su colossi come Google e Meta.
Nel frattempo, la tecnologia evolve: gli algoritmi non classificano soltanto, ma inferiscono, deducendo orientamenti politici, preferenze personali e vulnerabilità psicologica. Oltre il 60% degli utenti online è oggetto di profilazione avanzata, spesso senza consapevolezza. Il comportamento diventa pattern, i pattern previsioni, le previsioni decisioni economiche. La libertà individuale rischia così di trasformarsi in una probabilità. Le categorie del Novecento aiutano a leggere questo passaggio: Michel Foucault parlava di sorveglianza disciplinare, oggi diffusa e invisibile; Zygmunt Bauman di modernità liquida, perfetta per un sistema senza confini; George Orwell di controllo imposto, oggi accettato; Byung-Chul Han di trasparenza come esposizione volontaria. Il potere non si nasconde più, è incorporato nei processi.
Le nuove normative europee, come Digital Services Act e Digital Markets Act, cercano un equilibrio, ma il diritto procede per adattamenti mentre la tecnologia evolve per salti. E la questione torna al punto di partenza: il consenso. Può dirsi libero in condizioni di asimmetria informativa? Può dirsi informato se nessuno legge? Può dirsi scelta ciò che è progettato per essere accettato? Il rischio è evidente. Non è solo la privacy in gioco, ma la qualità della libertà. Una libertà prevedibile, orientata e modellata dagli algoritmi rischia di diventare apparente, non negata ma ridisegnata. Forse il problema non è che i dati vengano raccolti, ma che mentre li cediamo senza pensarci, stiamo cedendo qualcosa di più difficile da recuperare: la capacità stessa di scegliere davvero.
1 maggio 2026
1 maggio 2026
Antonio Nenna
A cura di