TRA LE RIGHE - L'ALGORITMO ALLA SBARRA: DIRITTO E POTERE NELL'ERA DELLA DECISIONE AUTOMATIZZATA
TRA LE RIGHE - L'ALGORITMO ALLA SBARRA: DIRITTO E POTERE NELL'ERA DELLA DECISIONE AUTOMATIZZATA
25 febbraio 2026
A cura di
Antonio Nenna

Nella storia del diritto occidentale, ogni volta che nuovi centri di potere emergono, l’ordinamento è chiamato a circoscriverli, a disciplinarli, a renderli soggetti alla responsabilità. Dalla stampa che rivoluzionò l’accesso all’informazione nel XVI secolo, alla rivoluzione industriale che impose una nuova visione della tutela del lavoro, fino ai sistemi elettronici di sorveglianza nel XX secolo, la tecnica non è mai stata neutra: è sempre veicolo di decisione. Oggi il soggetto del potere è l’algoritmo. Non un mero strumento tecnico, ma un dispositivo in grado di ordinare, selezionare e decidere in contesti amministrativi, penali e finanziari. La sua irrilevanza giuridica è un mito: ogni output algoritmico incide su diritti, libertà e aspettative legittimamente tutelate. Come scriveva Hans Kelsen, «la scienza del diritto deve rimanere autonoma e rigorosa, anche di fronte ai fenomeni sociali più complessi». L’algoritmo, per quanto sofisticato, non sfugge a questa regola. È esercizio di potere e, come tale, richiede sindacato, trasparenza e responsabilità.
L’algoritmo come atto amministrativo
In Italia, il Consiglio di Stato ha chiarito che l’uso di algoritmi da parte della pubblica amministrazione integra un vero e proprio atto amministrativo. La sentenza n. 8472/2019 ha precisato che ogni decisione algoritmica deve essere intelligibile, motivata e sindacabile. Il concetto di “scatola nera” non è un semplice artificio retorico: è un principio giuridico che stabilisce che l’atto deve essere conoscibile, anche in chiave tecnica, perché il diritto non può tollerare zone di arbitrarietà opaca.
Curiosità: alcuni algoritmi utilizzati per la gestione automatizzata dei concorsi pubblici sono stati annullati per violazione del principio di trasparenza, costringendo le amministrazioni a fornire il codice sorgente e spiegazioni dettagliate sui criteri di selezione. Questo richiama le preoccupazioni di Montesquieu sulla separazione dei poteri: il potere esecutivo non può disporre di strumenti non sindacabili da chi deve tutelare i cittadini. Secondo dati della Commissione europea, il 62% delle grandi amministrazioni pubbliche europee utilizza sistemi predittivi per la gestione documentale e la selezione del personale, con margini di errore rilevanti: circa il 28% dei modelli analizzati ha evidenziato bias in grado di influenzare le decisioni in maniera significativa. Anche il diritto amministrativo, dunque, deve fare i conti con la probabilità e l’errore statistico.
Il diritto europeo e il principio di responsabilità
Il GDPR, all’art. 22, sancisce il diritto di non essere sottoposti a decisioni basate unicamente su processi automatizzati che producono effetti giuridici significativi. Non è un divieto: è un principio di dignità giuridica. L’AI Act dell’Unione Europea introduce una classificazione graduata: divieti per pratiche incompatibili con i diritti fondamentali, obblighi stringenti per i sistemi ad alto rischio, trasparenza per quelli a rischio limitato. Il legislatore europeo traduce così in norma la massima di Ulpiano: salus populi suprema lex esto.
Curiosità: il testo dell’AI Act include riferimenti espliciti ai sistemi di scoring sociale e predittivo, proibendo pratiche che possano incidere sulla libertà, la dignità e l’eguaglianza dei cittadini. Si tratta di una novità assoluta rispetto alle leggi tradizionali: la normativa anticipa e regola fenomeni che non avevano precedenti giuridici, una sfida che ricorda il lavoro pionieristico di Hugo Grotius sul diritto naturale e la responsabilità universale. Secondo uno studio OCSE, oltre il 40% dei sistemi pubblici di intelligenza artificiale presenta rischi di bias significativi se non monitorati con strumenti adeguati. In ambito finanziario, circa il 25% delle decisioni algoritmiche di credit scoring può comportare effetti discriminatori su base socio-economica. Queste cifre evidenziano come la tecnologia amplifichi errori strutturali se non inserita in un quadro rigorosamente giuridico.
L’esperienza comparata: giustizia predittiva e discriminazioni
Negli Stati Uniti, il software COMPAS, utilizzato per valutare il rischio di recidiva, ha dimostrato come algoritmi possano incidere direttamente sulla libertà personale. Analisi indipendenti hanno rilevato bias razziali significativi: minoranze afroamericane venivano sovrastimate come “a rischio”, con conseguenze sulla detenzione e sulla condizionale.
Nei Paesi Bassi, un sistema antifrode fiscale è stato dichiarato illegittimo perché discriminava categorie socio-economiche vulnerabili, dimostrando che l’algoritmo non è mai neutro: riflette i dati e le scelte progettuali. Anche Norbert Wiener, padre della cibernetica, ammoniva: «la macchina non è morale», sottolineando che l’etica e la responsabilità restano prerogativa umana. In ambito sanitario, algoritmi predittivi di triage ospedaliero possono influenzare la priorità di trattamento dei pazienti; studi in Germania e Regno Unito hanno evidenziato che fino al 15% dei casi analizzati poteva subire discriminazioni implicite non intenzionali. Questi esempi confermano la tesi di Kelsen: l’ordinamento è un sistema normativo gerarchico, ma quando la decisione è opaca, il controllo si dissolve. L’introduzione di algoritmi nei procedimenti pubblici e giudiziari non può ridurre la responsabilità umana; essa deve essere rafforzata.
Cultura giuridica e alfabetizzazione algoritmica
Il giurista del XXI secolo deve essere in grado di leggere codici e dataset, comprendendo logiche computazionali senza rinunciare alla propria griglia costituzionale. La nuova alfabetizzazione implica capacità interdisciplinari: diritto costituzionale, diritto amministrativo comparato, statistica applicata e principi di etica pubblica.
Curiosità: in Giappone, il governo ha avviato corsi di formazione per magistrati su machine learning e AI governance, sottolineando che la comprensione dei modelli è necessaria per valutare legittimità, imparzialità e proporzionalità delle decisioni automatizzate. È un approccio simile a quello suggerito da Piero Calamandrei quando invitava i giuristi a conoscere «la realtà sociale e tecnica in cui la legge opera». L’alfabetizzazione giuridica non è esercizio accademico: è condizione di tutela dei diritti. L’efficienza senza responsabilità è regressione dello Stato di diritto. L’algoritmo accelera, calcola, ordina. Non può rispondere.
Responsabilità e principio costituzionale
La regola resta antica quanto il diritto stesso: ubi potestas, ibi responsabilitas. La responsabilità non può dissolversi nell’opacità del codice. L’ente pubblico, il funzionario, il magistrato restano titolari della decisione, anche quando mediata da strumenti predittivi complessi. Statistiche recenti mostrano che, in Europa, il 18% dei procedimenti pubblici digitalizzati potrebbe comportare violazioni dei diritti se non fossero previsti controlli umani: un richiamo concreto alla necessità di garantire la responsabilità e il sindacato giudiziario.
Il diritto come coscienza civile
Il problema non è se l’algoritmo entri nell’ordinamento: vi è già entrato. Il problema è stabilire condizioni e limiti. La decisione deve rimanere imputabile a un soggetto umano. Ogni sistema deve essere controllabile, trasparente, sindacabile. Per chiudere con un pensiero che collega la tradizione romana alla modernità: Ulpiano affermava “Salus populi suprema lex esto” - la salvezza del popolo sia la legge suprema. L’algoritmo può organizzare, prevedere, ordinare. La legge rimane il custode della responsabilità e della dignità. Solo così il diritto conserva la sua funzione civile, etica e costituzionale.
Nella storia del diritto occidentale, ogni volta che nuovi centri di potere emergono, l’ordinamento è chiamato a circoscriverli, a disciplinarli, a renderli soggetti alla responsabilità. Dalla stampa che rivoluzionò l’accesso all’informazione nel XVI secolo, alla rivoluzione industriale che impose una nuova visione della tutela del lavoro, fino ai sistemi elettronici di sorveglianza nel XX secolo, la tecnica non è mai stata neutra: è sempre veicolo di decisione. Oggi il soggetto del potere è l’algoritmo. Non un mero strumento tecnico, ma un dispositivo in grado di ordinare, selezionare e decidere in contesti amministrativi, penali e finanziari. La sua irrilevanza giuridica è un mito: ogni output algoritmico incide su diritti, libertà e aspettative legittimamente tutelate. Come scriveva Hans Kelsen, «la scienza del diritto deve rimanere autonoma e rigorosa, anche di fronte ai fenomeni sociali più complessi». L’algoritmo, per quanto sofisticato, non sfugge a questa regola. È esercizio di potere e, come tale, richiede sindacato, trasparenza e responsabilità.
L’algoritmo come atto amministrativo
In Italia, il Consiglio di Stato ha chiarito che l’uso di algoritmi da parte della pubblica amministrazione integra un vero e proprio atto amministrativo. La sentenza n. 8472/2019 ha precisato che ogni decisione algoritmica deve essere intelligibile, motivata e sindacabile. Il concetto di “scatola nera” non è un semplice artificio retorico: è un principio giuridico che stabilisce che l’atto deve essere conoscibile, anche in chiave tecnica, perché il diritto non può tollerare zone di arbitrarietà opaca.
Curiosità: alcuni algoritmi utilizzati per la gestione automatizzata dei concorsi pubblici sono stati annullati per violazione del principio di trasparenza, costringendo le amministrazioni a fornire il codice sorgente e spiegazioni dettagliate sui criteri di selezione. Questo richiama le preoccupazioni di Montesquieu sulla separazione dei poteri: il potere esecutivo non può disporre di strumenti non sindacabili da chi deve tutelare i cittadini. Secondo dati della Commissione europea, il 62% delle grandi amministrazioni pubbliche europee utilizza sistemi predittivi per la gestione documentale e la selezione del personale, con margini di errore rilevanti: circa il 28% dei modelli analizzati ha evidenziato bias in grado di influenzare le decisioni in maniera significativa. Anche il diritto amministrativo, dunque, deve fare i conti con la probabilità e l’errore statistico.
Il diritto europeo e il principio di responsabilità
Il GDPR, all’art. 22, sancisce il diritto di non essere sottoposti a decisioni basate unicamente su processi automatizzati che producono effetti giuridici significativi. Non è un divieto: è un principio di dignità giuridica. L’AI Act dell’Unione Europea introduce una classificazione graduata: divieti per pratiche incompatibili con i diritti fondamentali, obblighi stringenti per i sistemi ad alto rischio, trasparenza per quelli a rischio limitato. Il legislatore europeo traduce così in norma la massima di Ulpiano: salus populi suprema lex esto.
Curiosità: il testo dell’AI Act include riferimenti espliciti ai sistemi di scoring sociale e predittivo, proibendo pratiche che possano incidere sulla libertà, la dignità e l’eguaglianza dei cittadini. Si tratta di una novità assoluta rispetto alle leggi tradizionali: la normativa anticipa e regola fenomeni che non avevano precedenti giuridici, una sfida che ricorda il lavoro pionieristico di Hugo Grotius sul diritto naturale e la responsabilità universale. Secondo uno studio OCSE, oltre il 40% dei sistemi pubblici di intelligenza artificiale presenta rischi di bias significativi se non monitorati con strumenti adeguati. In ambito finanziario, circa il 25% delle decisioni algoritmiche di credit scoring può comportare effetti discriminatori su base socio-economica. Queste cifre evidenziano come la tecnologia amplifichi errori strutturali se non inserita in un quadro rigorosamente giuridico.
L’esperienza comparata: giustizia predittiva e discriminazioni
Negli Stati Uniti, il software COMPAS, utilizzato per valutare il rischio di recidiva, ha dimostrato come algoritmi possano incidere direttamente sulla libertà personale. Analisi indipendenti hanno rilevato bias razziali significativi: minoranze afroamericane venivano sovrastimate come “a rischio”, con conseguenze sulla detenzione e sulla condizionale.
Nei Paesi Bassi, un sistema antifrode fiscale è stato dichiarato illegittimo perché discriminava categorie socio-economiche vulnerabili, dimostrando che l’algoritmo non è mai neutro: riflette i dati e le scelte progettuali. Anche Norbert Wiener, padre della cibernetica, ammoniva: «la macchina non è morale», sottolineando che l’etica e la responsabilità restano prerogativa umana. In ambito sanitario, algoritmi predittivi di triage ospedaliero possono influenzare la priorità di trattamento dei pazienti; studi in Germania e Regno Unito hanno evidenziato che fino al 15% dei casi analizzati poteva subire discriminazioni implicite non intenzionali. Questi esempi confermano la tesi di Kelsen: l’ordinamento è un sistema normativo gerarchico, ma quando la decisione è opaca, il controllo si dissolve. L’introduzione di algoritmi nei procedimenti pubblici e giudiziari non può ridurre la responsabilità umana; essa deve essere rafforzata.
Cultura giuridica e alfabetizzazione algoritmica
Il giurista del XXI secolo deve essere in grado di leggere codici e dataset, comprendendo logiche computazionali senza rinunciare alla propria griglia costituzionale. La nuova alfabetizzazione implica capacità interdisciplinari: diritto costituzionale, diritto amministrativo comparato, statistica applicata e principi di etica pubblica.
Curiosità: in Giappone, il governo ha avviato corsi di formazione per magistrati su machine learning e AI governance, sottolineando che la comprensione dei modelli è necessaria per valutare legittimità, imparzialità e proporzionalità delle decisioni automatizzate. È un approccio simile a quello suggerito da Piero Calamandrei quando invitava i giuristi a conoscere «la realtà sociale e tecnica in cui la legge opera». L’alfabetizzazione giuridica non è esercizio accademico: è condizione di tutela dei diritti. L’efficienza senza responsabilità è regressione dello Stato di diritto. L’algoritmo accelera, calcola, ordina. Non può rispondere.
Responsabilità e principio costituzionale
La regola resta antica quanto il diritto stesso: ubi potestas, ibi responsabilitas. La responsabilità non può dissolversi nell’opacità del codice. L’ente pubblico, il funzionario, il magistrato restano titolari della decisione, anche quando mediata da strumenti predittivi complessi. Statistiche recenti mostrano che, in Europa, il 18% dei procedimenti pubblici digitalizzati potrebbe comportare violazioni dei diritti se non fossero previsti controlli umani: un richiamo concreto alla necessità di garantire la responsabilità e il sindacato giudiziario.
Il diritto come coscienza civile
Il problema non è se l’algoritmo entri nell’ordinamento: vi è già entrato. Il problema è stabilire condizioni e limiti. La decisione deve rimanere imputabile a un soggetto umano. Ogni sistema deve essere controllabile, trasparente, sindacabile. Per chiudere con un pensiero che collega la tradizione romana alla modernità: Ulpiano affermava “Salus populi suprema lex esto” - la salvezza del popolo sia la legge suprema. L’algoritmo può organizzare, prevedere, ordinare. La legge rimane il custode della responsabilità e della dignità. Solo così il diritto conserva la sua funzione civile, etica e costituzionale.
Nella storia del diritto occidentale, ogni volta che nuovi centri di potere emergono, l’ordinamento è chiamato a circoscriverli, a disciplinarli, a renderli soggetti alla responsabilità. Dalla stampa che rivoluzionò l’accesso all’informazione nel XVI secolo, alla rivoluzione industriale che impose una nuova visione della tutela del lavoro, fino ai sistemi elettronici di sorveglianza nel XX secolo, la tecnica non è mai stata neutra: è sempre veicolo di decisione. Oggi il soggetto del potere è l’algoritmo. Non un mero strumento tecnico, ma un dispositivo in grado di ordinare, selezionare e decidere in contesti amministrativi, penali e finanziari. La sua irrilevanza giuridica è un mito: ogni output algoritmico incide su diritti, libertà e aspettative legittimamente tutelate. Come scriveva Hans Kelsen, «la scienza del diritto deve rimanere autonoma e rigorosa, anche di fronte ai fenomeni sociali più complessi». L’algoritmo, per quanto sofisticato, non sfugge a questa regola. È esercizio di potere e, come tale, richiede sindacato, trasparenza e responsabilità.
L’algoritmo come atto amministrativo
In Italia, il Consiglio di Stato ha chiarito che l’uso di algoritmi da parte della pubblica amministrazione integra un vero e proprio atto amministrativo. La sentenza n. 8472/2019 ha precisato che ogni decisione algoritmica deve essere intelligibile, motivata e sindacabile. Il concetto di “scatola nera” non è un semplice artificio retorico: è un principio giuridico che stabilisce che l’atto deve essere conoscibile, anche in chiave tecnica, perché il diritto non può tollerare zone di arbitrarietà opaca.
Curiosità: alcuni algoritmi utilizzati per la gestione automatizzata dei concorsi pubblici sono stati annullati per violazione del principio di trasparenza, costringendo le amministrazioni a fornire il codice sorgente e spiegazioni dettagliate sui criteri di selezione. Questo richiama le preoccupazioni di Montesquieu sulla separazione dei poteri: il potere esecutivo non può disporre di strumenti non sindacabili da chi deve tutelare i cittadini. Secondo dati della Commissione europea, il 62% delle grandi amministrazioni pubbliche europee utilizza sistemi predittivi per la gestione documentale e la selezione del personale, con margini di errore rilevanti: circa il 28% dei modelli analizzati ha evidenziato bias in grado di influenzare le decisioni in maniera significativa. Anche il diritto amministrativo, dunque, deve fare i conti con la probabilità e l’errore statistico.
Il diritto europeo e il principio di responsabilità
Il GDPR, all’art. 22, sancisce il diritto di non essere sottoposti a decisioni basate unicamente su processi automatizzati che producono effetti giuridici significativi. Non è un divieto: è un principio di dignità giuridica. L’AI Act dell’Unione Europea introduce una classificazione graduata: divieti per pratiche incompatibili con i diritti fondamentali, obblighi stringenti per i sistemi ad alto rischio, trasparenza per quelli a rischio limitato. Il legislatore europeo traduce così in norma la massima di Ulpiano: salus populi suprema lex esto.
Curiosità: il testo dell’AI Act include riferimenti espliciti ai sistemi di scoring sociale e predittivo, proibendo pratiche che possano incidere sulla libertà, la dignità e l’eguaglianza dei cittadini. Si tratta di una novità assoluta rispetto alle leggi tradizionali: la normativa anticipa e regola fenomeni che non avevano precedenti giuridici, una sfida che ricorda il lavoro pionieristico di Hugo Grotius sul diritto naturale e la responsabilità universale. Secondo uno studio OCSE, oltre il 40% dei sistemi pubblici di intelligenza artificiale presenta rischi di bias significativi se non monitorati con strumenti adeguati. In ambito finanziario, circa il 25% delle decisioni algoritmiche di credit scoring può comportare effetti discriminatori su base socio-economica. Queste cifre evidenziano come la tecnologia amplifichi errori strutturali se non inserita in un quadro rigorosamente giuridico.
L’esperienza comparata: giustizia predittiva e discriminazioni
Negli Stati Uniti, il software COMPAS, utilizzato per valutare il rischio di recidiva, ha dimostrato come algoritmi possano incidere direttamente sulla libertà personale. Analisi indipendenti hanno rilevato bias razziali significativi: minoranze afroamericane venivano sovrastimate come “a rischio”, con conseguenze sulla detenzione e sulla condizionale.
Nei Paesi Bassi, un sistema antifrode fiscale è stato dichiarato illegittimo perché discriminava categorie socio-economiche vulnerabili, dimostrando che l’algoritmo non è mai neutro: riflette i dati e le scelte progettuali. Anche Norbert Wiener, padre della cibernetica, ammoniva: «la macchina non è morale», sottolineando che l’etica e la responsabilità restano prerogativa umana. In ambito sanitario, algoritmi predittivi di triage ospedaliero possono influenzare la priorità di trattamento dei pazienti; studi in Germania e Regno Unito hanno evidenziato che fino al 15% dei casi analizzati poteva subire discriminazioni implicite non intenzionali. Questi esempi confermano la tesi di Kelsen: l’ordinamento è un sistema normativo gerarchico, ma quando la decisione è opaca, il controllo si dissolve. L’introduzione di algoritmi nei procedimenti pubblici e giudiziari non può ridurre la responsabilità umana; essa deve essere rafforzata.
Cultura giuridica e alfabetizzazione algoritmica
Il giurista del XXI secolo deve essere in grado di leggere codici e dataset, comprendendo logiche computazionali senza rinunciare alla propria griglia costituzionale. La nuova alfabetizzazione implica capacità interdisciplinari: diritto costituzionale, diritto amministrativo comparato, statistica applicata e principi di etica pubblica.
Curiosità: in Giappone, il governo ha avviato corsi di formazione per magistrati su machine learning e AI governance, sottolineando che la comprensione dei modelli è necessaria per valutare legittimità, imparzialità e proporzionalità delle decisioni automatizzate. È un approccio simile a quello suggerito da Piero Calamandrei quando invitava i giuristi a conoscere «la realtà sociale e tecnica in cui la legge opera». L’alfabetizzazione giuridica non è esercizio accademico: è condizione di tutela dei diritti. L’efficienza senza responsabilità è regressione dello Stato di diritto. L’algoritmo accelera, calcola, ordina. Non può rispondere.
Responsabilità e principio costituzionale
La regola resta antica quanto il diritto stesso: ubi potestas, ibi responsabilitas. La responsabilità non può dissolversi nell’opacità del codice. L’ente pubblico, il funzionario, il magistrato restano titolari della decisione, anche quando mediata da strumenti predittivi complessi. Statistiche recenti mostrano che, in Europa, il 18% dei procedimenti pubblici digitalizzati potrebbe comportare violazioni dei diritti se non fossero previsti controlli umani: un richiamo concreto alla necessità di garantire la responsabilità e il sindacato giudiziario.
Il diritto come coscienza civile
Il problema non è se l’algoritmo entri nell’ordinamento: vi è già entrato. Il problema è stabilire condizioni e limiti. La decisione deve rimanere imputabile a un soggetto umano. Ogni sistema deve essere controllabile, trasparente, sindacabile. Per chiudere con un pensiero che collega la tradizione romana alla modernità: Ulpiano affermava “Salus populi suprema lex esto” - la salvezza del popolo sia la legge suprema. L’algoritmo può organizzare, prevedere, ordinare. La legge rimane il custode della responsabilità e della dignità. Solo così il diritto conserva la sua funzione civile, etica e costituzionale.
25 febbraio 2026
25 febbraio 2026
Antonio Nenna
A cura di