ISSN 2039 - 6937  Registrata presso il Tribunale di Catania
Anno XIII - n. 09 - Settembre 2021

  Studi



Intelligenza artificiale e pubblica amministrazione: sfide concrete e prospettive future.

Di Michele Corradino (Presidente di Sezione del Consiglio di Stato)

Intelligenza artificiale e pubblica amministrazione: sfide concrete e prospettive future[1]

 

Di Michele Corradino

(Presidente di Sezione del Consiglio di Stato)

https://www.giustizia-amministrativa.it/web/guest/-/corradino-intelligenza-artificiale-e-pubblica-amministrazione-sfide-concrete-e-prospettive-future

 

Per affrontare il tema della relazione che mi è stata assegnata “Intelligenza artificiale e pubblica amministrazione” credo sia necessario partire da una distinzione tra due tipi di algoritmo: l’algoritmo che definirei “tradizionale” e quello che si inserisce in un contesto di intelligenza artificiale. È una distinzione fondamentale perché sul suo crinale viaggiano situazioni giuridiche completamente differenti, rischi differenti e, quindi, esigenze di tutela del tutto differenti.

Questa distinzione fa riferimento a categorie in realtà molto ampie che qualunque esperto informatico lascerebbe scorrere in mille rivoli tutti caratterizzati da proprie specificità e nature differenti. Essa però, pur approssimativa, traccia una mappa che può essere utile almeno per orientarsi nella corretta direzione.

 

L’algoritmo “tradizionale” è uno strumento a cui si ricorre spesso nell’ambito dell’attività normativa o amministrativa. In questa prospettiva, l’algoritmo diventa una rappresentazione della norma e della sua interpretazione applicativa; si traduce in un vero e proprio metodo matematico per applicare la legge.

La legge, quindi, in questo caso, precede l’algoritmo che diventa solo un mezzo per applicare più celermente le scelte normative. Talvolta si tratta di algoritmi semplici, quasi coincidenti con formule matematiche più o meno complesse: si pensi, in via esemplificativa, ai criteri di individuazione delle offerte economicamente più vantaggiose negli appalti o agli algoritmi utilizzati dal Ministero dell’Istruzione per l’assunzione e l’assegnazione delle sedi ai docenti delle scuole che sono stati oggetto di recente di un’interessante vicenda giudiziaria oltre che di grande attenzione mediatica.

In casi come questi, l’analisi dell’algoritmo consente di ricostruire la logica della decisione. L’algoritmo è “dominabile”.

Certo, talvolta la sua complessità rende più difficile l’analisi e più facile l’errore ma, come vedremo, si tratta pur sempre di fallacia dell’uomo, di scelte sbagliate dell’uomo in cui il vizio non è ontologicamente differente da quelli tradizionalmente incasellati nella tradizionale triade oggi scolpita dalla legge sul procedimento amministrativo: incompetenza, violazione di legge ed eccesso di potere.

Accanto all’algoritmo “tradizionale” che presuppone la partecipazione intellettiva umana, v’è però l’algoritmo basato sull’intelligenza artificiale che perde il carattere della “dominabilità”. In questi casi, agli algoritmi – o, meglio, all’intelligenza artificiale - viene richiesto qualcosa in più e cioè assumere decisioni al posto dell’uomo. L’intelligenza artificiale si sostituisce all’uomo nella scelta dell’atto da compiere, secondo un processo di analisi, acquisizione di dati e scelte autonome a cui la volontà umana risulta estranea.

In questo caso, agli algoritmi, sub specie di “intelligenza artificiale”, viene richiesta anzitutto una attività di analisi di contesto sulla base di un set di dati ancora forniti dall’uomo. Sulla base di questi dati, l’algoritmo è chiamato a svolgere una rielaborazione e - discrimine che allontana l’intelligenza artificiale dall’algoritmo “tradizionale” - una valutazione che porterà, a sua volta, ad una nuova acquisizione di dati e immediata rielaborazione del contesto secondo una catena potenzialmente infinita di azioni che neutralizzano completamente il ruolo, il peso della decisione umana. In altre parole, qui l’algoritmo non applica regole prestabilite a situazioni concrete ma elabora i dati che l’uomo fornisce per compiere un’analisi di contesto, assume ed elabora altri dati che ritiene rilevanti, compie delle azioni, rivaluta nuovamente il contesto, rivaluta i dati sulla base delle azioni già compiute e dei risultati intermedi ottenuti e compie nuove azioni allo scopo di raggiungere nel modo migliore e più efficiente l’obiettivo prestabilito. L’uomo, come ben si capisce, resta del tutto estraneo alle fasi successive a quelle dell’individuazione dell’obiettivo e dell’iniziale assegnazione del set originario di dati perché alla base di  questo processo c’è la capacità dell’intelligenza artificiale di utilizzare sistemi  di apprendimento automatico - questo è il  dato centrale da tenere a mente - cioè, sistemi che non si limitano solo ad applicare le norme (come fa invece l’algoritmo “tradizionale”) ma,  al contrario, elaborano costantemente  nuovi criteri di inferenza tra dati e assumono decisioni efficienti sulla base di tali elaborazioni. 

Di apprendimento in apprendimento, la scelta perde sempre più il suo coefficiente di “umanità” ed assume due caratteristiche: la prima è che la decisione diventa sempre più efficiente in senso tecnico - ma, come si vedrà, non in senso etico - perché vengono eliminati tutti i possibili errori nell’individuazione della traiettoria che porta alla realizzazione dell’obiettivo nel modo più diretto e immediato possibile.

La seconda caratteristica è che la decisione algoritmica, perde via via la sua decifrabilità, la sua intellegibilità.

Al termine del percorso di valutazione, rielaborazione e creazione di nuove e autonome determinazioni, essa è sempre più difficilmente ricostruibile perché è il risultato di una combinazione di valutazioni e decisioni “esterna” al sistema intellettivo umano.  

La logica del “what if”, tipica del nostro sistema normativo, la logica del “norma – fatto/potere – effetto” che è tipica del nostro sistema giuridico viene sostituita in questo quadro da una sovrapposizione di inferenze che - altro passaggio fondamentale - è elaborata e poi espressa in un altro linguaggio: il linguaggio della macchina che è strutturalmente differente da quello umano.

Non si tratta della traduzione della norma giuridica nel linguaggio della macchina ma si tratta di una decisione che è nata già in un linguaggio completamente differente.

Non è più applicazione della norma secondo un metodo scientifico di ragionamento anche matematico: è una decisione di azione efficientissima rispetto all’obiettivo dato dall’uomo ma “aliena” perché nata nel mondo della traendo il suo soffio vitale dalla parola, dal linguaggio della macchina.

Tutto questo proietta la decisione in quella che è stata definita “black box”, una sorta di dimensione inestricabile e indecifrabile in cui l’uomo non si orienta bene perché le decisioni appartengono ad un mondo normativo diverso, un mondo di inferenze diverso che ha proprie dinamiche e soprattutto un proprio linguaggio.

È di immediata evidenza quanto la direzione normativa dell’intelligenza artificiale sia esattamente opposta a quella dell’algoritmo tradizionale. In quel caso, il percorso logico era “legge, quindi algoritmo”; in questo caso, l’algoritmo precede la legge e la determina. Lì si andava dalla legge verso l’algoritmo, qui, si va dall’algoritmo verso la legge

Non traduciamo in legge la nostra norma, la nostra rappresentazione della realtà, il nostro dominio sulla realtà, ma al contrario, è la macchina a stabilire il modo in cui va raggiunto l’obiettivo. È la macchina che con il suo linguaggio legge la realtà, la cataloga, la ordina dettando le regole di efficienza mediante quelle che vengono definite “impronte”. La macchina cataloga alcune impronte della realtà, le elabora e sulla base di queste prende le decisioni.

In questo modo ci si trova di fronte ad un nuovo simbolismo, ad una nuova rappresentazione del rapporto tra significante e significato, che ha la pretesa di essere un sistema autonomo.

Un sistema simbolico autonomo che non ha bisogno dell’uomo e spesso neanche dello Stato per realizzare le sue attività fondamentali. Non ha bisogno dello Stato per essere riconosciuto, per essere legittimato nella creazione delle norme e spesso neanche per farle applicare.

Quanti di noi stamattina hanno deciso di non prendere una strada soltanto perché Google maps ha ritenuto che fosse più trafficata del solito inducendo così la maggior parte della popolazione a percorrerne un’altra?  E la capacità di dettare e fare applicare regole è tanto più efficace quanto essa si salda con le tecniche di “nudging”, la spinta gentile che orienta a determinati comportamenti senza prevedere obblighi o minacciare sanzioni.

Ancora più rilevante il tema delle blockchain, una tecnologia che consente di dare certezza assoluta alle transazioni avvenute tra soggetti appartenenti ad un determinato network e che è stata oggetto di grande attenzione mediatica in quanto struttura sulla quale viaggiano, tra l’altro, gli scambi di bitcoin. In essa la funzione di certificazione e di creazione di fiducia - che è tipica dello Stato - è esercitata in forma decentrata da tutti i soggetti che partecipano alla comunità di riferimento. In quel caso, le caratteristiche della tecnologia informatica - con l’approssimazione consentita da questo convegno, direi un registro condiviso e impossibile da modificare che registra in modo sequenziale qualunque tipo di transazione in modo che tutti i membri della comunità ne siano al tempo stesso fruitori e guardiani - permette di rinunciare ad un’Autorità pubblica centralizzata di controllo. La diffusione del modello nel settore finanziario e più in generale in quello di scambio di asset sia tangibili che intangibili dovrebbe fare riflettere sulla capacità della tecnologia di cambiare il mondo giuridico nel quale siamo fin qui vissuti.

Il disimpegno dello Stato nella formazione della norma, o quanto meno dei comportamenti, è vissuto più serenamente nel diritto civile che storicamente ha già vissuto senza traumi la liberazione dello Stato nell’affermarsi della lex mercatoria.  Ne è una testimonianza la scarna regolamentazione legislativa degli smart contracts che viaggiano proprio sulle strutture della blockchain contenuta nella legge 22 febbraio 2019, n. 12. Tale fonte normativa, dopo averne dettato la nozione ed averli assimilati ai contratti a forma scritta, non sente la necessità di individuare dettagliatamente la disciplina e ne rimette struttura, regolamentazione e contenuti all’autonomia delle parti.

Il problema si caratterizza in modo diverso, però, nel diritto amministrativo che è regolazione e controllo del potere pubblico e in cui il tema dell’autonomia dell’intelligenza artificiale nell’assunzione delle decisioni si salda con quelli della sovranità, della divisione dei poteri, del collegamento necessario tra la decisione della pubblica amministrazione e la volontà popolare. In una parola, con la democrazia.

E su questo tema la giurisprudenza, che in verità si è fin qui prevalentemente se non esclusivamente espressa su algoritmi del primo tipo ha assunto due diversi atteggiamenti rispetto alla possibilità di integrare l’intelligenza artificiale nel procedimento amministrativo che porta alla decisione pubblica.

Da una parte c’è la diffidenza di quella parte della giurisprudenza che esprime preoccupazioni, non certo irragionevoli, per quella che il Tar Lazio, definisce   “l’abdicazione da parte del responsabile del procedimento del suo ruolo di timoniere ed anche di correttore[2] del procedimento amministrativo. “Timoniere del procedimento” è un’espressione, un’immagine forse direi, molto forte che simboleggia benissimo l’imprinting di un’epoca, di un sistema, ed insieme il timore per un   cambiamento di rotta che sembra difficilmente controllabile.

Sempre nell’ambito di questa linea di pensiero, si distingue qualche posizione più avanzata di, pur timida, apertura in cui si suggerisce di utilizzare gli algoritmi tradizionali ovvero l’intelligenza artificiale limitatamente alle attività vincolate. Altre volte addirittura solo a quelle ripetitive in cui pressoché ininfluente è l’apporto umano: una posizione, che riflette un po' l’idea diffusa nella storia della scienza della macchina che libera l’uomo dalle azioni faticose e ripetitive assicurando correttezza e sollievo.

C’è poi un’altra grande tendenza nella giurisprudenza amministrativa che invece accetta l’esistenza degli algoritmi, ne ammette l’utilizzazione nell’azione amministrativa e prova piuttosto a contenerne l’operato a tutela dei diritti degli individui che possono essere investiti. Afferma il Consiglio di Stato che  non “vi sono ragioni di principio, ovvero concrete, per limitare l’utilizzo all’attività amministrativa vincolata piuttosto che discrezionale, entrambe espressione di attività autoritativa svolta nel perseguimento del pubblico interesse[3]. Si tratta piuttosto di un problema di limiti a garanzia dei diritti fondamentali. E i limiti individuati  dalla giurisprudenza  corrono paralleli a quelli individuati dal Regolamento in materia di  privacy[4] ricalcando preoccupazioni, legate per lo più al trattamento dei dati personali, riscontrabili anche nella proposta di Regolamento in materia di intelligenza artificiale della Commissione europea[5]. Sono i limiti della “conoscibilità”, della “non esclusività” e della “non discriminazione”: limiti che, come vedremo, forniscono un adeguato livello di tutela in caso di algoritmi tradizionali ma che non sembrano dare risposta alle esigenze di tutela che pone l’intelligenza artificiale.

Vediamo perché.

Il primo limite è la conoscibilità. Una grande preoccupazione della giurisprudenza amministrativa è che l’algoritmo a base della decisione sia reso conoscibile perché la conoscenza dell’iter decisionale ne consente la valutazione sotto il profilo giuridico. La conoscibilità è certamente un elemento fondamentale che si inserisce nei valori di trasparenza dell’azione amministrativa che permeano il nostro ordinamento.

Ma siamo sicuri che basti?

Basta certamente ad evitare il deficit di tutela che si è registrato in altri ordinamenti giuridici. Emblematico il “caso Compas”[6]  in cui una pena molto grave venne comminata da una corte statunitense sulla base di una valutazione di pericolosità  formulata dall’intelligenza artificiale. In quel caso, venne negato alla difesa dell’imputato di conoscere i criteri che orientarono il giudizio di pericolosità perché, nel bilanciamento tra gli interessi in gioco e tenuto conto della possibilità di giustificare la pena sulla base di altri fattori, le esigenze di tutela del segreto industriale vennero ritenute prevalenti su quelle di trasparenza e di conoscibilità dell’algoritmo.

Ciò non sarebbe potuto accadere nel nostro Paese non soltanto nel caso di processo penale ma con ogni probabilità anche in qualsiasi processo amministrativo in cui fosse emersa la necessità di conoscenza di dati e documenti per la difesa di diritti e interessi. Ma, torno a domandare, basta questo? Possiamo autoassolverci e affermare, come è stato, fatto che da noi la situazione è diversa”?

No, non credo basti la conoscibilità perché questa può essere formidabile strumento di tutela quando è nota la logica che ha portato alla decisione, l’iter logico-giuridico che ha presieduto all’analisi della realtà concreta, all’elaborazione dei dati e alla scelta. Il processo logico giuridico che è normalmente racchiuso nella motivazione del provvedimento amministrativo.

Il problema è, però, che nell’intelligenza artificiale è proprio la logica ad essere strutturalmente non conoscibile. Ignota per definizione.

La black box, il nucleo decisionale dell’intelligenza artificiale che è frutto della capacità della macchina di autoapprendimento e di affinamento di criteri di conoscenza e scelta per la realizzazione più efficiente dell’obiettivo, è indecifrabile per natura.

Rendere conoscibile l’algoritmo non necessariamente svela o non necessariamente consente di svelare la correttezza della decisione.

Oppure, altro rischio che si profila all’orizzonte, la correttezza della decisione potrebbe essere conoscibile solo da soggetti che presentino una particolare qualificazione tecnica, una platea ristretta di pochi eletti, con la conseguenza, come più volte sottolineato dalla dottrina, di creare una generazione di tecnocrati che governano il mondo. Un rischio per la tenuta democratica che, per la sua gravità, merita spazi e approfondimenti diversi da quelli che mi sono concessi da questa relazione.

Il secondo limite individuato dalla giurisprudenza amministrativa è quello della non esclusività. Corre parallelo al principio fissato dall’art. 22 del citato Regolamento sulla privacy.

A tacere delle numerose esclusioni dall’applicazione individuate dalla norma, non sembra che anche questo elemento sia in grado di dare protezione adeguata.

È assolutamente fondamentale, si afferma, che sia possibile un intervento umano che possa correggere eventuali errori della macchina.

Ma anche qui: siamo certi che il principio di non esclusività sia in grado fornire tutela adeguata?  Chi avrebbe la forza, la capacità, la cultura per agire, per fronteggiare la decisione di una macchina basata sull’intelligenza artificiale? Certo in alcuni sistemi è facile ipotizzare un ruolo correttivo dell’uomo. È questo il caso dei sistemi on/off. Ad esempio, se un aereo senza pilota a cui è stato affidato il compito di colpire un nucleo di nemici in armi sta per colpire una famiglia di civili erroneamente individuata come obiettivo, è essenziale che sia previsto un’ultima possibilità di intervento umano per impartire un ordine contrario in modo da impedire l’atto criminale. È quanto previsto dal Parlamento Europea nella sua ultima risoluzione [7].

Non sempre, però, le decisioni della macchina, rectius le decisioni pubbliche fondate sull’intelligenza artificiale della macchina, sono comprimibili in un’alternativa on/off. Spesso le decisioni sono complesse, possono portare ad una rosa di risultati diversi la cui individuazione dipende dall’elaborazione dei dati, dalla loro valutazione, dall’applicazione dei principi di proporzionalità e di precauzione e soprattutto dal bilanciamento degli interessi basato sui valori costituzionali.

In questi casi il principio di non esclusività può accompagnarsi al rischio di sovrapporre, nella parte finale della decisione, la logica umana ad una logica completamente differente che era quella – spesso non conoscibile come si è visto – dell’intelligenza artificiale.  Una logica umana, tutta umana, non si limita qui a fermare una macchina (come nel caso dell’aereo senza pilota) ma si sovrappone alla logica della macchina. Logica umana e logica della macchina convivono nel medesimo procedimento senza che la prima sia in grado di sostituirsi alla seconda e spesso nemmeno di comprenderla.

E ciò potrebbe peraltro condurre a problemi di discriminazione tra soggetti che aspirano al medesimo bene nelle ipotesi di provvedimento amministrativo plurimo con effetti scindibili di natura discrezionale o tecnico-discrezionale, una graduatoria ad esempio, in cui il giudice annulli la determinazione con riferimento alla posizione del solo ricorrente. In tal caso i destinatari del provvedimento si vedranno giudicati con criteri differenti: la logica dell’uomo-giudice per il caso portato alla sua attenzione e la logica della macchina per tutti gli altri.

 La non esclusività, fondamentale in alcuni casi, difficile da applicare in altri non è insomma la panacea di tutti i mali.

Terzo limite fissato dalla giurisprudenza, forse quello più importante, è il principio di non discriminazione. Se sin dall’inizio viene data alla macchina un set di dati sbagliato il risultato dell’elaborazione, la decisione, la scelta non potranno che essere sbagliati, “Garbage in, garbage out”: se l’input è spazzatura, l’output non potrà che essere spazzatura. Fondamentale, quindi, è il controllo dei dati che vengono immessi e la corretta utilizzazione di leggi statistiche. Il “caso Compas” - che ho prima citato - è rimasto emblematico perché una non corretta immissione di dati statistici relativi alla pericolosità correlata all’origine etnica delle persone, nel caso di specie afro-americane, aveva indotto la macchina ad allargare oltremodo i confini della recidiva pur in assenza delle necessarie condizioni.   

 

In conclusione, cosa dobbiamo fare?

Non credo sia possibile assumere posizioni di retroguardia che neghino accesso all’intelligenza artificiale nell’attività della pubblica amministrazione.

Il futuro corre ed è impossibile da fermare: ben nota è la potenza della “legge di Moore” la quale vuole che i microchip raddoppino la loro potenza e la loro velocità in maniera esponenziale. E con la loro potenza aumentano la capacità di sostituirsi all’uomo nella gran parte delle sue attività quotidiane.

Il futuro si insinua e lo ritroviamo all’interno del sistema anche se noi non lo vogliamo. Quand’anche si stabilisse il divieto per la pubblica amministrazione di ricorrere all’intelligenza artificiale o agli algoritmi tradizionali nell’assunzione delle decisioni, ciò non significherebbe comunque potersi esimere dal giudicare del loro esistere, non foss’altro che per i provvedimenti assunti dall’amministrazioni in fattispecie in cui vengono in rilievo l’una o gli altri. 

Di recente, ad esempio,  il Tar Lombardia, Milano,  al fine di interpretare un bando di gara, sottolinea la necessità di non confondere  “la nozione di ‘algoritmo’ con quella di “intelligenza artificiale”, riconducibile invece allo studio di ‘agenti intelligenti’, vale a dire allo studio di sistemi che percepiscono ciò che li circonda e intraprendono azioni che massimizzano la probabilità di ottenere con successo gli obiettivi prefissati[8].

Pensiamo ancora ai prezzi di riferimento dell’ANAC che hanno un ruolo centrale nella regolamentazione economica degli appalti e che sono largamente basati su formule algoritmiche che tengono conto di fattori diversi per individuare il prezzo medio effettivo “depurandolo” da fattori straordinari che influenzano localmente la formazione dei prezzi che concorrono alla definizione del campione.

Provare a vietare o restringere il perimetro di incidenza degli algoritmi, semplici o basati sull’intelligenza artificiale è un po' come mettere la testa sotto la sabbia: impossibile negare il loro esistere e il loro rapportarsi con il potere pubblico

A me sembra che viviamo in un momento storico a cavallo di una nuova epoca. Un’epoca che è stata prefigurata e anticipata dal mito, dalla letteratura. Sono stati ricordati dai colleghi che mi hanno preceduto poc’anzi importanti romanzi: “Il Golem”, anzitutto, in cui il Rabbino di Praga crea un uomo artificiale senza però mettere subito la tavola di Dio che contiene le parole esatte idoneo a renderlo un uomo che rispetta le regole.  E pensiamo ancora a “Frankenstein”, in cui si sintetizza l’atavico sogno di ricreare l’uomo, o ad opere cinematografiche come “War games” in cui proprio il principio di non esclusività, affidato ad un bambino, salva la terra da una catastrofe atomica.

Ma proprio perché siamo a cavallo di un’epoca, io credo che non possiamo pensare di avere già tutte le risposte, di governare pienamente il fenomeno. Possiamo accettare l’idea di avere alcune direttrici di tutela che diano garanzia ai diritti: credo di poterne individuare tre.

Prima direttrice: possiamo anzitutto intervenire sui dati, sull’input, il primo momento su cui si basa l’elaborazione dell’intelligenza artificiale. Molto spesso le banche dati di cui si serve l’amministrazione presentano dati sporchi o metodi di acquisizione errati.

Si pensi, ad esempio, alla materia degli appalti, alla grande banca dati dell’ANAC che è immensa ma non è autoalimentata. Le amministrazioni non mandano i dati all’ANAC ma a degli Osservatori regionali che li rielaborano, inoltrandoli poi all’ANAC stessa. Non solo. Molto spesso i dati si presentano obsoleti o ridondanti mentre mancano alcune informazioni che potrebbero essere fondamentali nell’analisi dei mercati. 

Per questo è necessario intervenire subito sui dati: inserire nella macchina dati necessari e corretti, di cui si abbia l’assoluta governabilità e nei confronti dei quali si nutra “fiducia” ci mette al riparo da soluzioni viziate ab origine.

In questo quadro grande attenzione andrà data al rispetto del principio di non discriminazione. L’input di dati errati o la cattiva utilizzazione delle leggi statistiche può portare ad esiti paradossali che si sono già concretizzati nel “caso Compas” che citavo poc’anzi in cui l’appartenenza etnica dell’imputato ha inciso sulla determinazione della pena da comminare. 

 

Seconda direttrice: possiamo accettare l’idea che alcuni concetti ai quali siamo abituati e sui quali ci siamo formati e che comunque applichiamo, oggi, di fronte all’intelligenza artificiale, devono essere trasformati concettualmente o forse devono solo declinati in modo diverso. Pensiamo alla causalità: la  Risoluzione del Parlamento Europeo[9] si preoccupa di ricordare che occorre ribadire la responsabilità dello Stato per i danni creati dai droni militari alle popolazioni civili  perché il dato soggettivo relativo all’attribuzione della colpa,  non appare più certo atteso che le scelte dai quali i danni possono derivare, i luoghi da bombardare ad esempio, non sono attribuibili ad un uomo. Allo stesso modo concetti fondamentali per il diritto quali l’imputabilità, la responsabilità, la discrezionalità, il sindacato giurisdizionale, il sillogismo giuridico sono forse tutti da revisionare perché vanno riletti nel linguaggio delle macchine, cioè, quel linguaggio in cui vibrano tutte queste decisioni.

Sotto questo profilo appare interessante il Consiglio di Stato che in tema di partecipazione a procedimenti basati sugli algoritmi afferma coraggiosamente che: “Non può quindi ritenersi applicabile in modo indiscriminato…  all’attività amministrativa algoritmica, tutta la legge sul procedimento amministrativo, concepita in un’epoca nella quale l’amministrazione non era investita dalla rivoluzione tecnologica…. Il tema dei pericoli connessi allo strumento non è ovviato dalla rigida e meccanica applicazione di tutte le minute regole procedimentali della legge n. 241 del 1990 ( quali ad es. la comunicazione di avvio del procedimento sulla quale si appunta buona parte dell’atto di appello o il responsabile del procedimento che , con tutta evidenza, non può essere una macchina in assenza di disposizioni espresse ), dovendosi invece ritenere che la fondamentale esigenza di tutela posta dall’utilizzazione dello strumento informatico c.d. algoritmico sia la trasparenza nei termini prima evidenziati riconducibili al principio di motivazione e/o giustificazione della decisione[10].

 

Per ultimo, terza direttrice, la più importante. Anche io, come chi mi ha preceduto, voglio ricordare un romanzo che mi ha molto colpito “Macchine come me” di  Ian Mcewan[11]. Un romanzo in cui si tratteggia la storia di un ménage à trois tra una coppia, Charlie e Miranda, e un robot chiamato Adam (anche qui ritorna, prorompente, il simbolismo). All’interno della coppia accadono tante vicende fino a quando sopravviene un grande momento di crisi in cui il protagonista umano, Charlie, forse non a caso un giurista, prende un martello – uno strumento antico e anche qui torna il simbolismo -  e rompe la testa al robot, uccidendolo.  Charlie sceglie di uccidere Adam non quando il robot ha una - chiamiamola così - relazione con Miranda, non quando gli rompe un polso durante una colluttazione ma quando Adam, la macchina, non capisce, non riesce a capire, non riconosce la differenza tra la legge vera - la legge del cuore - e la legge della giustizia. Lo uccide quando, cieco rispetto ad un dramma familiare vissuto dalla coppia, sta per denunciare Miranda per un grave crimine commesso in un doloroso contesto di grande debolezza esistenziale. Charlie uccide il robot quando questo non riesce a sentire il dilemma lacerante  tra legge e legge del cuore cui noi umani  siamo, o dovremmo essere,  abituati  da Antigone in poi: “Che razza di mondo volete? – dice Adam – La vendetta o la legge. La scelta è semplice”.

Ed è questo il punto: la scelta è ovviamente obbligata e propende per la legge ma non sempre è semplice, inquadrabile nella logica binaria che è propria delle macchine e priva di tormento. Da questo romanzo possiamo trarre qualcosa, da questo percorso dobbiamo desumere la terza direttrice.  Quando dobbiamo rompere il robot?

Io credo che noi Magistrati, e noi giuristi in genere, non dobbiamo mai tradire il ruolo che la Costituzione ci ha assegnato. Non dobbiamo mai smettere di stare dalla parte di chi è più debole, di chi ha subito un torto, di chi si è visto negare un diritto, dalla parte di chi, pur lottando, non ce la fa, di chi patisce la pena più terribile: l’indifferenza giustificata dal rispetto della forma. Algoritmo o non algoritmo, automatismo o non automatismo, noi staremo sempre dalla parte della Giustizia e non del raggiungimento dell’obiettivo ad ogni costo. È in quel momento che romperemo il robot.

 

 

Note:

 

[1] Trascrizione integrale dell’intervento al corso di formazione per i Magistrati organizzato dall’Ufficio studi, massimario e formazione della Giustizia amministrativa.

[2] Così Tar Lazio, Roma, sez. III, sentenza n.  4409 del 15 aprile 2021.   

[3] Così Consiglio di Stato, sez. VI, sentenza n. 881 del 4 febbraio 2020.

[4]  Regolamento (UE) n. 2016/679 (Reg. GDPR) del 27 aprile 2016, attuato dal D. Lgs 2018, n. 101  

[5]  Proposta di Regolamento del Parlamento europeo e del Consiglio del 21 aprile 2021 che stabilisce regole armonizzate sull'intelligenza artificiale (“legge sull'intelligenza artificiale”) e modifica alcuni atti legislativi dell'Unione.

 

[6]Noto alla cronaca come “Caso Compas”, si tratta del “Caso Loomis”, Supreme Court of Wisconsin, State of Wisconsin v. Eric L. Loomis, Case no. 2015AP157-CR, 5 April – 13 July 2016

[7]Risoluzione del Parlamento Europeo, A9-0002/2021, del 20 gennaio 2021 sull'intelligenza artificiale

[8] Così TAR Lombardia, Milano, sentenza n. 843 del 13 marzo 2021.

[9] Risoluzione del Parlamento europeo del 25 marzo 2021 sull'attuazione della direttiva 2009/81/CE, relativa agli appalti nei settori della difesa e della sicurezza, e della direttiva 2009/43/CE, relativa ai trasferimenti di prodotti per la difesa (2019/2204(INI))

[10] Consiglio di Stato, sez. VI, sentenza n. 881/2020 cit.

[11] Ian Mcewan, Macchine come me, ed. it., Einaudi 2019.