ISSN 2039 - 6937  Registrata presso il Tribunale di Catania
Anno XVI - n. 05 - Maggio 2024

  Studi



Procedimento amministrativo: evoluzione digitale e suoi sviluppi nell’era dell’Intelligenza artificiale.

Di Matteo Bottari
   Consulta il PDF   PDF-1   

Procedimento amministrativo: evoluzione digitale e suoi sviluppi nell’era dell’Intelligenza artificiale.

 

Di MATTEO BOTTARI*

 

 

Abstract:

L’affermazione delle nuove tecnologie e l’avvento dell’Intelligenza artificiale evidenziano sempre di più la necessità di ripensare le categorie giuridiche che hanno tradizionalmente accompagnato l’attività della Pubblica Amministrazione e il procedimento amministrativo normato dalla legge 241/1990. In particolare, l’automazione della fase decisionale di un procedimento amministrativo rappresenta la fase più delicata di questa evoluzione e potrebbe diventare la conclusione naturale dell’evoluzione tecnologica e giuridica che ha caratterizzato e sta caratterizzando l’organizzazione amministrativa di molti Paesi. Si tratta di un vero e proprio cambio di paradigma che pone però alcuni importanti dilemmi ad oggi irrisolti ma che hanno la necessità di essere affrontati al più presto per consentire di coniugare la tutela dei diritti alle opportunità e ai vantaggi offerti dall’avanzamento della tecnica.

 

The affirmation and spread of new technologies and the advent of artificial intelligence increasingly highlight the need to rethink the legal categories that have traditionally accompanied the activity of the Public Administration and the administrative procedures regulated by law 241/1990. In particular, the automation of the decision-making phase of an administrative procedure represents the most delicate phase of this evolution and could become the natural conclusion of the technological and legal evolution that has characterized and is characterizing the administrative organization of many countries. It is a real paradigm shift which, however, poses some important dilemmas which are still unresolved today but which need to be addressed as soon as possible to allow for the protection of rights to be combined with the opportunities and advantages offered by the advancement of the technique.

 

Sommario:

1 - Premessa ed inquadramento del tema nell’attività della Pubblica Amministrazione 2 - Il percorso tecnico-evolutivo del procedimento amministrativo e la nuova frontiera dell’intelligenza artificiale. 3 - Il quadro normativo di riferimento, con particolare riguardo all’attività della PA. 4 - I temi rilevanti del cambiamento in atto: a. Tracciabilità del procedimento e profilazione dei dati.  b. Evoluzione vs. legalità, c. Opacità vs. trasparenza; d. Responsabilità vs. deresponsabilizzazione; e. Motivazione vs. black box. f. Interferenze dell’IA con gli altri istituti del procedimento amministrativo. 5 - L’esperienza diretta nella PA. 6 - Conclusioni.

 

  1. Premessa ed inquadramento del tema nell’attività della Pubblica Amministrazione

L’evoluzione della tecnologia digitale ha impresso, nel corso degli ultimi anni, una brusca accelerazione alle modalità tradizionali di concepire l’andamento dei processi di produzione e lavoro in qualunque campo di attività: dal credito all’industria manifatturiera, dalla biologia all’intrattenimento culturale, dalla medicina ai trasporti, fino all’esplorazione spaziale. Tutto si è innovato e modificato nel volgere di poco tempo, facendo parlare di quarta rivoluzione industriale[1]

Tale evoluzione è stata possibile grazie alla maggiorata potenza di calcolo dei computer, alla conseguente facilità di creazione e di trasmissione delle informazioni digitali (big data), di conservazione delle stesse in capienti spazi virtuali (cloud) e al loro scambio attraverso la rete internet. Oggi molte produzioni industriali e parecchi servizi in varie parti del mondo sono gestiti da Intelligenze artificiali[2] (IA - o AI nell’acronimo internazionale) dotate di una capacità evolutiva che le mette in grado non solo di essere alquanto accurate e precise ma anche, se possibile, di automigliorarsi. Si manifesta sempre di più l’opportunità di sostituire l’intervento umano su una molteplicità di attività grazie alla sinergia tra IA e macchine robotiche permettendo all’industria e alle aziende che forniscono servizi di avere catene di produzione completamente automatizzate e offerte commerciali sempre più aderenti alle esigenze dei clienti (spesso, anzi, influenzandone a priori le scelte) e in cui la necessità di individuare gli algoritmi migliori ha, in molti casi, superato anche gli sforzi di ricerca delle più qualificate forze e competenze umane. In molti settori il lavoro umano è stato sostituito da quello delle macchine e la preoccupazione è, adesso, quella di comprendere l’esatto confine tra i due e dove (e se) potrà esserci in futuro un terreno non valicabile dalle macchine e preservato all’esclusivo intervento umano. 

Anche il mondo delle Pubbliche Amministrazioni (d’ora in poi “PA”) è chiamato a confrontarsi con questa rivoluzione. Ormai anche le PA utilizzano la tecnologia per svolgere le loro attività ed esercitare le loro funzioni. Lo fanno, però, senza fare sistema e, spesso, senza mettere a frutto le potenzialità fornite dal digitale. Si pensi all’aggregazione dei dati: i colossi privati del Web sono ormai in grado di monitorare di ciascun individuo spostamenti, ricerche, preferenze di mercato, inclinazioni personali, mail, riunioni, video, foto, etc. (per incrementare i loro profitti); le PA invece hanno difficoltà anche solo ad aggregare dati (come quelli catastali, fiscali, e riferiti alle utenze) che, messi a sistema, potrebbero portare enormi vantaggi all’interesse collettivo (in termini di equità, ridistribuzione del peso fiscale, etc.). Inoltre, in un ambito in cui le informazioni sono diventate merci di scambio sempre più preziose, le PA sono viste come potenziali motori di sviluppo dell’economia, per diverse ragioni[3]. Non ultima la loro caratteristica di essere detentrici di grandi quantità di dati legati all’esistenza e ai comportamenti dei cittadini, in continua evoluzione, bacino imprescindibile per l’elaborazione di nuova conoscenza da mettere a frutto per orientare le scelte strategiche e per fornire servizi pubblici in linea con aspettative che si raffinano sempre di più man mano che il mercato dell’offerta dei servizi privati evolve in quantità e qualità a ritmi sempre più sostenuti[4].

In questo momento, spinte dall’apertura alla dimensione digitale e dalle risorse veicolate con il Piano Nazionale di ripresa e resilienza (PNRR), anche nelle PA italiane si vanno proponendo opportunità ‘rivoluzionarie’ di sviluppo e di trasformazione legate alla maggiore penetrazione  ed evoluzione dei nuovi sistemi di intelligenza artificiale, i quali caratterizzeranno sempre più i tempi a venire portandosi appresso, come vedremo, altrettante criticità da gestire. Tali opportunità/criticità sono il portato della sempre più raffinata elaborazione delle informazioni permessa dai computer attraverso i quali si è reso possibile pervenire alla soluzione automatica di problemi complessi mediante ‘serie di equazioni matematiche e di regole di codifica progettate per portare a termine una funzione specifica[5]. Ci si riferisce all’affermazione degli algoritmi, ossia (secondo anche l’asciutta definizione che ne ha dato il Consiglio di Stato) “sequenze ordinate di operazioni di calcolo[6], nonché, non da ultimo, all’evoluzione esponenziale intrapresa dagli algoritmi ad apprendimento autonomo (machine e deep learning).

Siamo nel pieno di un cambiamento epocale che merita la massima attenzione di studiosi e operatori del diritto[7], anche quando si tratta di materie cui, a prima vista, potrebbe sembrare avulso l’intervento tecnologico e la modalità di gestione completamente automatizzata. È il caso del procedimento amministrativo, un architrave del nostro sistema di diritto amministrativo introdotto nell’ordinamento italiano nel 1990 con la legge n. 241, nel quale sono valutati e contemperati da una PA una serie di interessi diversi (pubblici e privati) con il fine di ottenere la realizzazione (o la limitazione) di un diritto, lo sfruttamento di una facoltà, l’autorizzazione a procedere secondo certe modalità, etc. (dal conseguimento di un particolare ‘status’, ad una licenza commerciale, dalla realizzazione di un progetto di abitazione o di complesso produttivo all’ottenimento del via libera per un certo prodotto, azienda, alla concessione di un bene di interesse pubblico, etc.)[8].

L’apporto di algoritmi nel procedimento amministrativo può incidere nelle diverse fasi di cui lo stesso si compone[9]: la fase di avvio del procedimento, per esempio, con l’acquisizione automatizzata dei dati del richiedente già presenti in altre banche dati della PA o con l’accertamento di un comportamento suscettibile di sanzione o la rilevazione di un’omissione a obblighi di legge (ad es.: al Codice della strada, ai Regolamenti comunali, etc.) attraverso sistemi automatici di rilevazione ed elaborazione dei dati; la fase istruttoria del procedimento, in cui l’inquadramento del caso e la sua qualificazione possono avvenire mediante un accertamento singolo (di conformità o adeguatezza della richiesta, di effettiva violazione di norme, o con necessità di integrazioni, etc.) o mediante un più elaborato incrocio di banche dati già ampiamente popolate di casi simili, cosa che consentirebbe, tra l’altro, l’assicurare il principio di completezza dell’istruttoria in misura ben maggiore e in tempi più celeri rispetto agli attuali; la fase decisoria vera e propria, quando si tratta di procedimenti che comportano sia un livello di discrezionalità minima (ad es.: assegnazione di sedi in una procedura concorsuale[10]) o un più alto livello di discrezionalità amministrativa, sia, a fortiori, quando si tratta di decisioni vincolate; infine, la fase integrativa (o successiva) dell’efficacia, in cui una determinazione già assunta ed immessa nel sistema di dati interconnessi a servizio delle PA, può rivelare (o, addirittura, predire) condizioni che ostano al mantenimento degli effetti del provvedimento (ad es. annullamenti o riduzioni di contributi economici per ricalcoli o informazioni sopravvenute relative al soggetto beneficiario assunti dopo la decisione[11]). 

Per completezza poi, trattando di Pubbliche Amministrazioni, è bene sottolineare che esse sono chiamate non solo a produrre servizi (con modalità spesso non dissimili dai soggetti privati) ma soprattutto ad esercitare dei poteri pubblici[12]. In questo secondo caso, l’esercizio dell’attività autoritativa che si esprime attraverso procedimenti ed atti amministrativi unilaterali va meglio inquadrato nella duplice veste di cui si compone: quella formale, che attiene al documento informatico, in cui vengono in evidenza aspetti che ricalcano il provvedimento amministrativo classico in formato cartaceo (quali la validità giuridica, la conservazione documentale, etc.) e quella, sostanziale, della formazione della volontà che, con l’applicazione di algoritmi e di sistemi di Intelligenza Artificiale (d’ora in poi “IA”), subisce le innovazioni più radicali, transitando le dinamiche decisionali nella sfera dell’elaborazione elettronica (c.d. automazione decisionale)[13]. L’impiego di tecnologie digitali introduce semplificazione e modernizzazione ai servizi resi dalle PA ma può avere, come risvolto critico, un’incidenza irreversibile sulle modalità di esercizio dello stesso potere pubblico (soprattutto dal punto di vista delle tutele ordinamentali previste per i destinatari di quelle decisioni). 

A questo proposito in dottrina si è distinto opportunamente tra decisioni amministrative svolte in base ai c.d. “algoritmi condizionali” o “deterministici” (model o rule based) e quelle assunte in base ad algoritmi “probabilistici” e di “apprendimento” sviluppati dall’IA in ‘machine’ o ‘deep learning’ (apprendimento profondo)[14]. Nel primo caso, quello in cui la PA implementa un’IA le cui decisioni si basano sull’avveramento, o meno, di determinate condizioni, l’algoritmo viene programmato affinché questo, al ricorrere appunto della condizione, esegua un certo comando[15]. Nel caso di algoritmi prodotti all’interno di meccanismi di deep o machine learning funzionanti in un sistema di IA, invece, le nozioni necessarie per l’assunzione di una determinazione sono estrapolate dalla macchina stessa analizzando grandi quantità di dati ed apprendendo in autonomia da questi i parametri necessari per successivamente adottare decisioni informate[16]. In tale secondo caso non è agevole ricostruire il ‘ragionamento’ algoritmico a causa della imprevedibilità dei processi decisionali delle macchine che elaborano costantemente nuovi criteri di inferenza tra dati e assumono decisioni efficienti sulla base di tali elaborazioni, secondo un principio di apprendimento automatico[17], rendendo praticamente impossibile la supervisione e la correzione umane[18].

  1. Il percorso tecnico-evolutivo del procedimento amministrativo e la nuova frontiera dell’Intelligenza artificiale.

Già da qualche decennio si è assistito al lento ma costante progredire della digitalizzazione dell’attività procedimentale della pubblica amministrazione. Si è però trattato, inizialmente, di percorsi paralleli, non convergenti, perché, da un lato, per la prima volta nel nostro ordinamento, è stata varata una legge (la n. 241 del 1990) sul procedimento amministrativo, ossia sulla sequenza di atti ed operazioni attraverso cui la funzione amministrativa si traduce in atto. Da un altro lato, ma in maniera slegata dalla impostazione della legge 241, il legislatore ha cominciato a porre la propria attenzione sull’uso delle tecnologie informatiche nell’azione amministrativa[19].

L’approvazione del Codice dell’Amministrazione digitale - CAD (D.lgs. 82 del 7 marzo 2005)[20] quasi in contemporanea con la riforma della legge 241 del 1990 (legge 15 dell’11 febbraio 2005), ha dato l’avvio al lungo e difficile percorso di integrazione tra regole amministrative e digitalizzazione intrapreso dalle PA che è ancora oggi in atto[21]. Si è potuto affermare, allora, che il controverso rapporto tra diritto e tecnologie, che era stato sempre caratterizzato da ‘logiche’ profondamente diverse e distanti fra le due realtà, si era avviato verso una convergenza.[22]

Un primo portato di questo cambiamento è stato quello di assistere ad un’estrema schematizzazione del procedimento amministrativo dovuta all’architettura informatica e ai conseguenti percorsi logici svolti dai software che hanno accompagnato (e accompagnano) le procedure svolte in digitale[23]. Dal punto di vista organizzativo ciò ha comportato la necessità di fare ricorso ad una sempre maggiore standardizzazione dei processi di lavoro finalizzata a ricondurre i procedimenti ‘cartacei’ in procedimenti ‘digitali’. Questa schematizzazione formale ha costituito però - e a prescindere dalla migliore o peggiore qualità degli applicativi informatici in cui è stata trasfusa - un passo in avanti (in termini di efficienza, imparzialità, buon andamento) rispetto ad un tempo in cui l’avanzamento del procedimento amministrativo svolto in modalità ‘cartacea’ era soggetto ad un’ampia discrezionalità da parte degli operatori interni alle PA. La discrezione sull’andamento del procedimento era molto ampia, anche alla luce delle significative difficoltà nell’assicurare un controllo sul rispetto delle tempistiche tra una fase e l’altra (visto che la pratica era soggetta solo a passaggi ‘fisici’ - a volte dei corridoi tra le varie stanze in cui le firme andavano acquisite) e sulla conseguente tracciabilità del processo. Oggi, la successione schematica dei procedimenti amministrativi svolti in digitale permette invece di avere contezza delle fasi in cui (e dei termini temporali entro cui) una pratica viene portata a termine.

Attualmente, il Sistema di gestione dei procedimenti amministrativi (SGPA)[24] è realizzato attraverso la definizione, a carico dell’Agenzia per l’Italia Digitale (AgID), delle regole di interoperabilità dei flussi documentali che le PA implementano per aderire al sistema stesso[25]. Le PA sono tenute ad implementare le API (Application Programming nterface) per la partecipazione al sistema[26].

Il passaggio innovativo che sta investendo attualmente anche le PA è quello dell’evoluzione dei sistemi di machine o deep learning che scardina l’assunto tradizionale per cui il software algoritmico ‘contiene l’insieme ordinato in sequenza di tutte le regole precise, inequivoche, analitiche, generali ed astratte formulate ex ante (cioè prima che si presentino concrete questioni da risolvere e senza riferimento specifico ad esse) la cui applicazione porta all’adozione di un atto amministrativo’[27].

Una distinzione importante per i fini che qui ci si propone di analizzare è quella tra sistemi di IA che hanno una gamma limitata di capacità cognitive e sistemi di IA che hanno capacità molto più generali di risoluzione dei problemi. In sostanza, tutti i sistemi oggi in uso sono del primo tipo: limitato. È bene sapere, però, che molti sistemi già operativi contengono componenti che potrebbero avere un ruolo nella futura intelligenza generale artificiale (IAG).[28] Ed esiste anche la possibilità non trascurabile che l’IAG progredisca fino a livelli umani e anche oltre, innescando scenari in cui l’esplosione incontrollata di intelligenza potrebbe lasciarci molto indietro[29].

A fronte di tali pur legittime preoccupazioni occorre tuttavia osservare che l’affermarsi dell’intelligenza artificiale, dei suoi strumenti, delle grandi piattaforme e dei grandi players internazionali si pone già oggi come il sopravvenire di un vero e proprio nuovo ‘potere’, capace di entrare nella vita pubblica e privata dei cittadini, condizionandone le vicende, e che, come tutti i poteri, andrà disciplinato e regolato con un sistema di checks and balances[30].

 

  1. Il quadro normativo di riferimento, con particolare riguardo all’attività della PA

Si è assistito ad un tale inesorabile e rapido progredire di questi assetti che ciascun Paese ha avuto la necessità di dotarsi di strategie e regole giuridiche che accompagnassero questa evoluzione. La normazione è però in divenire, e gli approcci dei legislatori nelle varie parti del mondo sono alquanto differenti.

In Europa, è stato a partire dalla Direttiva 95/46 che si è dato il diritto “ad ogni persona a non essere sottoposta ad una decisione che produca effetti giuridici o abbia effetti significativi nei suoi confronti fondata esclusivamente su un trattamento automatizzato di dati” (art.15)[31]. Tale norma è stata poi codificata con l’approvazione del Regolamento generale sulla protezione dei dati (GDPR - Reg. UE 2016/679 del 27.04.2016) che, in particolare con l’art.22, denominato “Processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione” ha dato una normativa cogente riferita alle decisioni automatizzate, cioè assunte tramite procedimenti algoritmici e di Intelligenza artificiale[32]. In base a questa disposizione[33] si ammette la gestione automatizzata del procedimento amministrativo quando vi sia una legge dello Stato che lo preveda (con le idonee garanzie per i diritti dell’interessato) o quando la decisione automatizzata sia frutto di un contratto o del consenso esplicito dell’interessato.[34]

A questa prima base normativa sono seguiti alcuni interventi della Commissione Europea che hanno approfondito il tema dell’Intelligenza artificiale senza, però, pervenire ad una sua regolamentazione cogente[35].

L’ordinamento giuridico italiano è rimasto, invero, fino a poco tempo fa, abbastanza cauto rispetto a questi temi. Manca ancora una cornice normativa nazionale che regoli le decisioni algoritmiche delle PA[36]. L’unica norma che vi fa riferimento (non diretto) è l’art. 3 bis della legge 241 del 1990 (modificato dal d.l. n.76/2020) che parla dell’utilizzo degli ‘strumenti informatici e telematici’ per conseguire maggiore efficienza nelle attività delle PA. Questa norma non è evidentemente sufficiente a garantire la copertura generale per il procedimento amministrativo automatizzato prevista dall’art. 22 del GDPR[37].

Il Codice dell’Amministrazione digitale, peraltro, non prende alcuna posizione sulla decisione automatizzata o supportata da algoritmo, parlando (art. 2) di utilizzo delle tecnologie da parte delle PA ‘con le modalità più appropriate e nel modo più adeguato al soddisfacimento degli interessi degli utenti’. Il CAD è, infatti, orientato alla regolamentazione del documento informatico (forma) e non si occupa del procedimento e dell’atto amministrativo (contenuto) di competenza della legge 241/90.

Posta, dunque, la mancanza a tutt’oggi di una norma generale di riferimento ‘a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato’ (come recita l’art. 22 del GDPR)[38], si verifica, per il momento, un’attività di ‘supplenza’ su questi temi da parte della giurisprudenza amministrativa (T.A.R. e Consiglio di Stato), visto che la realtà incalza e la gamma di decisioni amministrative prese con l’ausilio di algoritmi o di IA comincia ad essere, come vedremo nel prosieguo, molto variegata.

Si fanno avanti però, occorre aggiungere, norme che interessano ambiti particolari[39]. La novità più recente è data dalla bozza del nuovo Codice dei Contratti pubblici[40] che, all’art.19, introduce nell’ordinamento italiano la norma che consentirà alle PA, con riferimento alle gare d’appalto, di ‘ricorrere a procedure automatizzate nella valutazione delle offerte’. L’art. 19 rimanda poi all’art. 30 che, previo il rispetto di alcune garanzie procedimentali, apre alla possibilità per le Amministrazioni pubbliche di ‘automatizzare le proprie attività ricorrendo a soluzioni tecnologiche, ivi incluse l’intelligenza artificiale e le tecnologie di registri distribuiti’ (c.d. blockchain). La norma parla di ‘attività’ e non di ‘procedimenti’, proprio perché non esiste ancora una norma che legittimi la completa automazione decisionale tramite IA nella legge sul procedimento amministrativo (l.241/1990). Si ritiene, però, che il termine ‘attività’ non debba intendersi in maniera ‘generica’ (altrimenti sarebbe stato più calzante quello di ‘funzioni’) ma si possa intendere come ‘attività sub-procedimentali’, cioè attività prodromiche alla decisione finale (che, per il momento, non può essere automatizzata ‘in toto’).

È bene anche considerare due fattori di fondo: che i fenomeni in atto non hanno dimensione solo nazionale ed occorre che la regolazione sia anch’essa sovranazionale; e che ogni tentativo di regolazione dell’IA deve fare i conti, in ogni caso, con l’intrinseca fluidità della stessa, caratterizzata da incessanti sviluppi che rendono rapidamente obsoleta qualsiasi disciplina volta a regolarla[41].  

 

  1. I temi rilevanti del cambiamento in atto

a.      Tracciabilità del procedimento e profilazione dei datiUn primo tema rilevante riguardo il procedimento amministrativo visto sotto la prospettiva evolutiva digitale è quello della tracciabilità. Questo aspetto, prima - come si diceva - quasi del tutto indifferente alle PA, è stato invece oggi talmente potenziato che, attraverso le c.d. blockchain[42], possiamo avere certezza assoluta circa l’immodificabilità delle operazioni di un procedimento inserite nella ‘catena di blocchi’[43], ovvero di registri informatici in cui vi è condivisione ab origine dei dati tra i partecipanti alla rete ed il passaggio dal tradizionale sistema a fiducia accentrata a forme di fiducia distribuita (c.d. registri informatici distribuiti)[44].

La blockchain si differenzia da un database perché in quest’ultimo le informazioni possono essere sovrascritte, cosi che, da un lato, le informazioni possono essere ‘manomesse’ apparendo comunque vere; dall’altro, si perde lo storico ad ogni sovrascrittura. Con la blockchain, invece, le informazioni vengono scritte su blocchi chiusi con una chiave crittografica in modo che non siano più sovrascrivibili. In questo modo ogni aggiornamento o modifica di quell’informazione deve essere inserita in un nuovo blocco che è necessario creare[45]. Attraverso le blockchain i sistemi di certificazione ed autenticazione tradizionali non avranno più ragione di esistere. Questa opportunità è stata è stata introdotta nell’ordinamento giuridico italiano nel 2018, con il D.L. n.135/2018 (convertito in L. n.12/2019) art. 8 ter, e se ne fa riferimento anche nel D.L. 76/2020 (convertito in Legge n.120/2020) che, all’art.26 parla di «tecnologie basate su registri distribuiti»[46] per la sola (ma delicatissima) fase della notificazione di atti e provvedimenti amministrativi. Nella pratica concreta si segnalano già esperienze complete ed operative di successo delle blockchain applicate ai procedimenti amministrativi: si tratta di sperimentazioni - limitate ma efficaci - negli ambiti della c.d. ‘notarizzazione’ (conferimento di certezza ai dati) e dei c.d. Smart contract[47], ovvero transazioni automatizzate (anche con semplici app) che procedono alla verifica di determinati requisiti accedendo a diverse banche dati pubbliche ed erogando all’utente la prestazione richiesta (agevolazione, bonus, contributo, etc.) senza bisogno di intervento umano[48].

Quello degli Smart contract è un campo in cui la previsione di una copertura normativa alla decisione amministrativa automatizzata recede rispetto alla presenza, appunto, di un contratto tra soggetto agente e soggetto fruitore o, comunque, alla previsione di un consenso esplicito del fruitore interessato.In tali casi sembra utile la riviviscenza della norma di cui all’art.1 c. 1bis della legge 241/1990 la quale dispone che “La pubblica amministrazione, nell'adozione di atti di natura non autoritativa, agisce secondo le norme di diritto privato salvo che la legge disponga diversamente”. Nel caso degli Smart contract la sostituzione dello strumento procedimentale autoritativo con quello negoziale comporta l’acquisizione a monte del consenso del soggetto privato nella cui sfera è destinato a prodursi l’effetto giuridico[49], che rappresenterebbe dunque un’idonea base autorizzatoria alla gestione automatizzata delle decisioni[50].

Un altro aspetto che ha preso piede da tempo nell’ambito dell’attività privatistica e su cui ci si interroga a proposito dei limiti che dovrebbe trovare a garanzia di alcuni diritti e libertà fondamentali anche nel pubblico (ad esempio il diritto alla ‘privacy’), è quello della profilazione, che l’immensa e continua produzione di dati consente a chi è in grado di sfruttarli - mediante l’applicazione di particolari algoritmi - per i propri fini (data mining). Attraverso la profilazione chi dispone di certe informazioni può avere la possibilità di influire non solo, ad esempio e come comunemente creduto, sulle scelte di consumo ma anche sulla formazione delle idee, delle opinioni, sull’utilizzo del tempo di lavoro. Si sta ampliando a dismisura, per citarne qualcuno, il dibattito, non solo teorico ma giudiziario, sull’‘algorithmic decision making’ nei rapporti di lavoro, a causa del sostituirsi della scelta ‘datoriale’ umana a favore di processi decisionali affidati all’automazione algoritmica[51]. Sono sotto osservazione anche i sistemi di ‘credit rating’ impiegati nella concessione di prestiti e mutui bancari, così come le tecniche di ‘collaborative filtering’ utilizzate per predire od indirizzare le preferenze commerciali, culturali, etc. di gruppi di utenti e consumatori. La PA elabora ormai una mole significativa di dati informatici che si trovano depositati in banche dati opportunamente riservate (in remoto o in cloud) o alla portata di tutti, sul web, grazie alla cosiddetta ‘Amministrazione trasparente’ e al diritto d’accesso civico. Sono dunque strettamente legate alla caratteristica della profilazione (e ai rischi connessi di discriminazione, induzione, sfruttamento e altre forme di illegalità) le evoluzioni del trattamento dei dati personali nei vari ‘fascicoli’, ‘cassetti’, ‘dossier’ del cittadino e nei data base dei cosiddetti ‘sportelli unici’ ma anche, non da ultimo, nel c.d. ‘Internet of Things’ (IoT) un mondo (quello che stiamo vivendo) in cui gli stessi oggetti (attraverso sensori digitali, microfoni, telecamere, etc.) diventano fonte di dati che si traducono in un flusso crescente di informazioni sulle persone che hanno rapporti (anche fugaci ed inconsapevoli) con essi[52].

  1. Evoluzione vs. legalità

Viene anche posto il tema della “legalità algoritmica”[53]. Il ricorso all’automazione delle decisioni amministrative non comporta particolari problemi sino a che non si tratta di delegare alla macchina la decisione finale, quella c.d. ‘discrezionale’. I sistemi di IA avanzati (deep learning) sono sempre più in grado di assumere decisioni elaborando dati (che vengono forniti dall’uomo o estrapolati in automatico dalla stessa IA) ma lo fanno in maniera non spiegabile da un’intelligenza umana (black box). Formulano opinioni in base a calcoli matematici che apprendono la realtà e la interpretano in base alle informazioni di cui si ‘nutrono’. Pertanto, lungo una catena potenzialmente infinita di azioni e di inferenze, l’algoritmo non applica le regole prestabilite (norme giuridiche) a situazioni concrete, ma elabora i dati compiendo un’analisi di contesto[54]. C’è una ‘disintermediazione’ dalle prescrizioni di diritto pubblico che eleverebbe l’IA a centro autonomo di potere, dotato di un proprio sistema simbolico[55]. L’esercizio di un tale potere dovrebbe essere trasparente e controllabile e, quantomeno, sostenuto da un’adeguata base legale (principio di legalità dell’azione amministrativa). Si è detto sopra che per il momento non c’è ancora una cornice legale autorizzatoria ‘a monte’[56] in quanto il nostro Paese, a differenza di altri Paesi europei[57] non ne ha ancora previsto e disciplinato l’uso[58]. Il Consiglio di Stato ha comunque incoraggiato una lettura evolutiva della questione (estendere l’uso degli algoritmi di IA al di là dell’attività vincolata) perché è anche vero che l’approccio a questi temi (che coinvolgono i principi del diritto amministrativo ma anche del diritto costituzionale) non può essere di chiusura e occorre che la soluzione degli stessi non ostacoli l’evoluzione dei sistemi di IA, confidando, magari, nel fatto che le stesse tecnologie, quando saranno mature, potranno suggerire soluzioni volte a bilanciare le conquiste dell’innovazione, la sicurezza e la tutela dei diritti.

  1. Opacità vs. trasparenza

Il tema dell’automazione decisionale, cioè della delega operativa concessa alle macchine di pervenire ad un assetto decisorio sulla base di algoritmi gestiti da IA, resta per il momento al centro del dibattito giuridico (non solo nazionale) a causa del fatto che vengono evidenziati da più parti i rischi causati dall’imperscrutabilità dei processi di autoapprendimento sempre più raffinati (machine e deep learning) che maturano nelle black boxes algoritmiche, con la conseguente possibilità che una decisione apparentemente razionale, neutra, oggettiva produca decisioni in realtà irrazionali, fallaci, discriminatorie. Oltre a quello - preliminare - della base legale di tale potere, si pongono pertanto altri due ordini di problemi: il primo, legato alla necessità di trasparenza, ovvero di comprensibilità, conoscibilità e di spiegabilità degli algoritmi; il secondo, legato all’imputazione delle decisioni prese con sistemi automatizzati e quindi della responsabilità delle decisioni stesse.

Sulla presunta lesione di interessi legittimi da parte degli algoritmi, in mancanza di una normativa nazionale di riferimento, si è quindi attivata prontamente la giurisprudenza amministrativa (T.A.R. e Consiglio di Stato) sollecitata dalla messa in opera di casi concreti da parte di qualche PA. Il dibattito giurisprudenziale su queste nuove tematiche si è sforzato di individuare precisi criteri di legittimità nell’uso degli algoritmi e dell’Intelligenza artificiale nella PA. Tali criteri sono volti, in buona sostanza, a far prevalere sempre e comunque il principio di trasparenza e conoscibilità dell’algoritmo rispetto a qualsiasi altro diritto (si va dalla necessità di conoscere gli autori dell’algoritmo al procedimento utilizzato per la sua elaborazione, dal meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale, ai dati selezionati come rilevanti)[59]. A questo proposito anche la giurisprudenza fa una distinzione chiara tra l’uso che le PA fanno di algoritmi ‘deterministici’ o ‘condizionali’ e di algoritmi ‘probabilistici’ ad ‘apprendimento autonomo’ e veri e propri sistemi di IA, sottolineando che la questione non può essere limitata solo all’opacità che caratterizza la decisione finale, ma riguarda soprattutto la fase di costruzione e implementazione del sistema di IA da utilizzare[60].

I primi interventi del T.A.R. e del Consiglio di Stato sul tema dell’automazione dei provvedimenti amministrativi si sono avuti su fattispecie in cui si trattava dell’uso, da parte della PA, di algoritmi ‘deterministici’ o ‘condizionali’ e non di scelte basate su meccanismi di machine learning (vista anche la poca diffusione degli stessi nella realtà pubblica italiana). Nelle sentenze sin qui pronunciate si è sempre posto l’intervento umano come discriminante capace di allineare secondo criteri ‘più razionali’ risultati elaborati con le capacità di calcolo utilizzate dai software dotati di IA. I criteri di ‘trasparenza’[61] e ‘responsabilità’ che il Consiglio di Stato ha posto come baluardi per garantire la legittimità e la logicità della decisione presa dall’algoritmo sono dettati dalla necessità di trovare una tutela nei confronti di un’azione amministrativa che non può affidarsi all’IA in maniera acritica e inconsapevole. Ma si tratta, a ben vedere, di pronunce dettate dal bisogno di garantire tutele basilari nei confronti dei ricorrenti e, dunque, di rendere possibile operare un controllo e riaffermare l’applicazione dei principi che presiedono la ‘classica’ istruttoria procedimentale. Lo si deduce nel momento in cui le stesse pronunce suppongono che basti assimilare logicamente un procedimento algoritmico ad un vero e proprio ‘procedimento amministrativo’ per renderne legittimo l’uso. Tuttavia la caratteristica dell’esplicabilità e della completa trasparenza non è sempre possibile da garantire, e con essa il controllo dei dati posti alla base del modello, laddove sia lo stesso sistema di IA a sceglierli. Pertanto, il problema della logicità algoritmica e dei suoi risultati (e, quindi, della sua sindacabilità) entra decisamente in crisi quando la questione è quella di una decisione che viene presa non in base ad un mero algoritmo ‘tradizionale’ (già di per sé di estremamente difficile comprensione anche per gli addetti ai lavori) ma in base ad un vero e proprio sistema di ‘apprendimento profondo’ di IA. E questo non solo perché le modalità di valutazione e ragionamento umano sono del tutto diverse dalle modalità di valutazione e ragionamento di un’IA, ma soprattutto perché queste ultime sono il frutto di elaborazioni che comprendono una casistica e una capacità combinatoria infinitamente superiore e comunque molto differente rispetto a quella presa in considerazione da un cervello umano e che, soprattutto, sono il portato di operazioni di calcolo, effettuate in base a ‘training’ continui, di cui non è possibile una ricostruzione ‘a posteriori’ (imperscrutabilità).

Il tema del deep learning è solo uno degli ostacoli alla comprensibilità delle IA: si è detto che più l’algoritmo è potente più risulta opaco[62]. Addirittura, il termine ‘opacità’ acquista anche un profilo positivo, in termini tecnologici, come il portato della complessità dell’approfondimento effettuato dal deep learning della macchina, della sua capacità di svolgimento dei problemi. Si è anche sottolineato che le decisioni delle macchine restano sempre più trasparenti e neutrali rispetto a quelle degli esseri umani, dei quali non conosciamo il codice dell’apprendimento e sui quali non abbiamo il controllo sui dati inseriti. Anche in merito alla comprensibilità del funzionamento delle macchine, dobbiamo tenere conto che di molte tecnologie ormai comunemente accettate (aeroplani, farmaci, interventi medici), non comprendiamo il funzionamento: l’intellegibilità, in questo senso, non deve essere quindi intesa come rivolta a tutti, nemmeno ai sottoposti alla misura o ai funzionari, ma certamente agli esperti[63]. È indubbio che l’applicazione di queste tecnologie anche all’ambito delle decisioni pubbliche e ai procedimenti amministrativi potrebbe portare una serie di vantaggi in termini di efficienza, efficacia, economicità e garanzia di integrità. Ma occorre anche occuparsi delle tutele. Per questo la stessa Sezione del Consiglio di Stato è tornata, più di recente, sugli argomenti posti dalle sentenze del 2019 relativamente alla conoscibilità degli algoritmi (e sulla illegittimità causata dalla loro opacità) facendo riferimento all’uso non intellegibile dell’intelligenza artificiale come parametro non invocabile per gettare nel nulla le decisioni della PA prese con l’ausilio di tali strumenti[64]. E, in questo quadro giurisprudenziale evolutivo, si colloca la decisione della Sezione III del Consiglio di Stato (n. 7891 del 2021)[65] nella quale si fa una chiara distinzione tra algoritmo (tradizionale) e intelligenza artificiale vera e propria (definendo quest’ultima come ‘sistema che percepisce ciò che la circonda e intraprende azioni che massimizzano la probabilità di ottenere con successo gli obiettivi prefissati[66]). È un passo avanti per l’elaborazione giurisprudenziale su questi temi che, per il momento, come si è detto, non è arrivata a pronunciarsi su sistemi di machine e deep learning utilizzati da PA[67]. Peraltro, sia detto per inciso, anche tale nozione di IA – pur generica - lascia fuori un numero significativo di applicativi (dai motori deduttivi ed inferenziali, ai sistemi esperti, sino agli altri approcci basati sulla conoscenza): il rischio è che un elevato numero di applicativi di IA finisca sempre per sfuggire ai tentativi di regolazione[68].

Il problema di fondo riguardo la comprensibilità, com’è stato giustamente segnalato[69], è in realtà la fondamentale incompatibilità tra la logica degli algoritmi e la logica del procedimento legislativo/decisionale ‘umano’. I processi decisionali comunemente seguiti da un decisore pubblico sono basati su ciò che viene chiamata ‘ambiguità costruttiva’: questi processi, nel perseguire obiettivi il più possibile condivisi, sono spesso il risultato di compromessi, concessioni alle controparti, forzature interpretative, al fine di acquisire il risultato ritenuto più equo per la situazione data e, in ultima analisi, sviluppare il consenso politico. Si tratta di scambi tra molteplici obiettivi e interessi (pubblici e privati), spesso inconciliabili. Gli algoritmi dei sistemi di machine learning, al contrario, sono ‘massimizzatori utilitaristi’[70] di ciò che in definitiva è una singola quantità e si basano su criteri decisionali esplicitamente ponderati. Non sono in grado di tollerare l’ambiguità. Finché le macchine digitali non avranno imparato ad osservare e incorporare le contraddizioni umane, gli errori – prospettiva ancora molto distante anche perché nemmeno l’uomo è riuscito a spiegare come funzioni una ‘coscienza’– deve esserci modo di discutere apertamente degli obiettivi in conflitto e delle contraddizioni esistenti, e si dovrà risolverle in maniera inequivocabile ed anticipata, perché solo allora saranno quantificabili e in grado di essere incorporati nel machine learning.

Tutto ciò evidenzia un grosso limite all’applicazione ai procedimenti amministrativi con connotazioni di esercizio unilaterale del potere da parte delle PA di sistemi di IA[71]. Per il momento la logica inferenziale non deterministica basata su correlazioni statistiche anziché causali tipica dell’IA machine learning, appare aliena rispetto a quella che contraddistingue le valutazioni che le amministrazioni pubbliche sono chiamate a compiere nell’esercizio di poteri tecnico-discrezionali[72]. Tuttavia non si può e, aggiungiamo, non si deve escludere una possibilità di applicazione rischiando di fare muro contro l’evoluzione tecnologica e intraprendendo battaglie di retroguardia. Non è escluso che, con l’evoluzione della tecnologia e con l’aiuto dello stesso machine learning, si possano riscontrare idonei contrappesi che facilitino l’applicazione delle tecnologie di IA anche ai poteri autoritativi delle PA[73]. Si fa riferimento, ad esempio, a strumenti già introdotti in via sperimentale di algorithmic impact assessment: valutazioni o analisi di impatto, sviluppo di expertise tecniche adeguate; o previsione di ‘rinforzi’ partecipativi ‘umani’: utilizzo più ampio del ‘soccorso istruttorio’, procedure amministrative parallele e introduzione di adeguate forme di ricorso amministrativo ad un decisore umano[74].

  1. Responsabilità vs. deresponsabilizzazione

Il tema della responsabilità (e, precisamente, della responsabilità del procedimento amministrativo in un ambito in cui sono effettivi i limiti sulla conoscibilità della logica algoritmica e sull’intervento correttivo umano) rappresenta l’altro aspetto ancora giuridicamente irrisolto dell’automazione decisionale nella PA. Si sostiene che sia necessario sottoporre il risultato prodotto da un sistema di IA ad un effettivo e consapevole controllo umano, prima che esso produca effetti giuridici[75].  Secondo il Consiglio di Stato occorre sempre un “centro di imputazione umano” (principio di non esclusività) che si assuma la responsabilità e sia in grado di verificare legittimità e logicità della decisione dettata dall’algoritmo. Ma, in realtà, appare molto incerto l’affidamento su un contributo umano che sia in grado di controllare ed eventualmente correggere la decisione algoritmica. Spesso il decisore pubblico non solo non può intervenire a causa del funzionamento non deterministico dell’algoritmo ma non vuole farlo, atteso il ‘conforto’ scientifico che la risorsa matematica gli garantisce, anche in termini di contenimento della propria responsabilità[76]. Si segnala, giustamente, un corrispondente rischio di ‘appiattimento’ del decisore umano nei confronti dell’elaborazione algoritmica: è molto più comodo basare la propria decisione su un ampio substrato di dati e calcoli statistici piuttosto che prendersi la responsabilità di una decisione basata sull’evidenza, sull’intuito e sull’esperienza umane[77].

Si è anche sostenuto che il c.d. principio ‘precauzionale’ (cioè quello che, come precauzione a tutela, contempla anche un intervento umano) adottato dal Giudice amministrativo in assenza di adeguati strumenti regolatori ed efficaci rimedi rischia, però, di ancorarsi ad una mediazione giuridica fondata su categorie non più compatibili con le potenziali applicazioni dell’IA all’attività amministrativa[78]. La mediazione giuridica dello sviluppo tecnologico rischierebbe addirittura di bloccare le future applicazioni dell’intelligenza artificiale all’attività amministrativa delle PA[79].

Nel recente ‘Programma Strategico Intelligenza Artificiale 2022-2024’[80] approvato dal Governo italiano, nei Principi guida, si legge che “L’IA italiana sarà antropocentrica, affidabile e sostenibile” e che, conseguentemente, l’obiettivo è quello di ‘sviluppare e adottare un’IA affidabile ed incentrata sull’uomo nel settore pubblico e privato affinché le soluzioni di IA siano conformi alla norme vigenti e vengano accettate dalla società sostenendo nel contempo o sviluppo e la progettazione di tecnologie e sistemi di IA responsabili’.

Per superare l’impasse relativa all’imputabilità degli atti automatici c’è anche chi, forse provocatoriamente, ha parlato del computer come una nuova figura di pubblico funzionario, adattando la teoria degli organi e parlando degli elaboratori in termini di “centri virtuali di imputazione dell’attività amministrativa”[81].

In realtà, sono sempre preferibili gli approcci pragmatici e non ideologici: divieto di integrale sostituzione di una decisione interamente automatica ad una che veda una qualche forma di partecipazione umana; utilizzabilità del diritto d’accesso (ex ante ed ex post) da parte del soggetto interessato soprattutto in funzione conoscitiva della logica applicata nei processi automatizzati che lo riguardano; previsione di adeguati strumenti di monitoraggio delle attività dei funzionari pubblici nella loro interazione con il machine learning e possibilità di avviare processi di riaddestramento; rafforzamento dei poteri di accesso da parte dei soggetti collettivi portatori di interessi diffusi in ausilio dei singoli nei processi di controllo grazie a forme di autorganizzazione sociale. Sono questi alcuni dei principi che vengono proposti, anche normativamente, per recuperare almeno una limitata possibilità di controllo sulle decisioni automatizzate[82].

 

Con riguardo alla paternità dell’atto amministrativo, e quindi all’aspetto della sua sottoscrizione formale, c’è anche chi, in dottrina[83], ha proposto, in alternativa alla firma elettronica oggi comunemente utilizzata, l’uso del c.d. ‘sigillo elettronico’ (disciplinato dal Regolamento UE n.910/2014, con la differenza, rispetto alla firma, di essere associato ad una persona giuridica e non ad una persona fisica). Con tale accorgimento l’atto è meglio riconoscibile verso l’esterno come prodotto dell’elaborazione elettronica, laddove l’uso di una firma elettronica condurrebbe alla parvenza fuorviante di un atto prodotto dalla volontà di un singolo, quindi ‘celando’ la natura algoritmica del procedimento. Il secondo risultato è che non si avrebbe la concentrazione della responsabilità su un solo soggetto, ma una più corretta distribuzione della medesima fra tutti coloro che hanno concorso alla produzione dell’elaborazione elettronica.

  1. Motivazione vs. black box

Alcune indicazioni di riferimento per queste problematiche sono contenute nella ‘Proposta di Regolamento europeo per l’Intelligenza Artificiale’ approvata dalla Commissione Europea il 21 aprile 2021[84] della quale però si potrà tenere pienamente conto solo dopo che (e se) verrà approvata[85]

L’allegato III alla Proposta di Regolamento europeo inserisce tra i sistemi di IA ‘ad alto rischio’ anche molti procedimenti amministrativi utilizzati dalle PA per identificare e categorizzare con tecnologie biometriche le persone fisiche o gestire infrastrutture critiche (ad es. nel campo del traffico stradale e delle forniture di acqua, gas, etc.), per la selezione o la valutazione di persone nell'ambito dei rapporti di lavoro, per ammettere le persone fisiche alle prestazioni e ai servizi di assistenza pubblica o, ancora, per attività di emergenza o di primo soccorso. E, infine, ma non ultime, tutte quelle attività svolte dalle istituzioni pubbliche volte alla prevenzione e al contrasto del crimine nonché all’amministrazione della giustizia e dei processi democratici (“applicazione di leggi ad una serie concreta di fatti”)[86].

La Proposta stabilisce che per i sistemi di IA ad alto rischio i requisiti di qualità elevata dei dati, documentazione e tracciabilità, trasparenza, sorveglianza umana, precisione e robustezza sono strettamente necessari per attenuare i rischi per i diritti fondamentali e la sicurezza posti dall'IA.

A norma dell’art. 14 della Proposta: ‘i sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui il sistema di IA è in uso’. Del resto, rimane indubitabile la centralità dell’essere umano, che già a monte stabilisce come debbano operare le macchine. Anche in questo caso, al di là di ciò che avviene per i casi di IA ad alto rischio, la Proposta di Regolamento europeo, nel disporre che il supervisore deve ‘poter comprendere il sistema, monitorare le operazioni, rilevare e affrontare anomalie, interpretare correttamente gli output, essere consapevole della tendenza ad affidarsi alla IA, non utilizzare il sistema, non affidarsi ai risultati, interromperne il funzionamento’, stabilisce dei principi ai quali fare riferimento anche per i casi non ad alto rischio. Quindi, sebbene il cuore delle previsioni contenute nella Proposta di Regolamento si riferisca ai sistemi di IA ad alto rischio, sembra ragionevole ipotizzare che molte misure prescritte diventeranno degli standard per tutti gli usi pubblici dell’intelligenza artificiale che possano avere un impatto significativo sui cittadini. Peraltro, anche in questo caso, in ordine alla comprensibilità, la macchina può essere programmata per produrre una motivazione, con indicazione del livello di affidabilità di una eventuale predizione e con riferimento ai precedenti.[87] Semmai, una questione da non sottovalutare è rappresentata dal fatto che, per le modalità di funzionamento dell’IA, c’è il pericolo di decisioni automatizzate tendenzialmente conservatrici, in quanto basate su schemi di regolarità statistica registrati per il passato. C’è un rischio, in altri termini, di riduzione di quella flessibilità che giustifica l’attribuzione di poteri discrezionali all’amministrazione e, di conseguenza, di perdita di quella capacità di adeguare il corso della propria azione ai mutamenti degli interessi e dei fatti giuridicamente rilevanti[88].

A tale ultimo proposito si deve anche accennare agli sforzi di diverse istituzioni a livello mondiale volto a fornire linee guida ‘etiche’ che possano rendere conforme le attività di IA ai principi etici[89]. Mentre l’attenzione della Commissione Europea si concentra sull’affidabilità dell’IA[90], il Parlamento europeo ha istituito il forum ‘AI4People’ per aiutare il mondo delle imprese a orientarsi verso la ‘buona società’. La US National Science Foundation si è invece concentrata sulla possibilità di un’IA ‘equa’. In Cina, nel giugno 2019, il Comitato di esperti per la governance nazionale dell’intelligenza artificiale ha pubblicato i “Principi di governance per l’IA di nuova generazione: per lo sviluppo di un’IA responsabile”. E anche tra i colossi informatici privati non sono mancati i tentativi di stabilire Carte etiche per l’IA[91].

In realtà, secondo un campo di ricerca che si colloca in un punto mediano fra la regolazione di matrice tecnica e quella di matrice etica e noto come ‘machine ethics’, occorrerebbe incorporare l’etica e l’equità all’interno di modelli di machine learning attraverso una definizione normativa che possa essere tradotta in una funzione matematica e poi essere utilizzata come limite in alcuni problemi di ottimizzazione[92]. L’etica non è, infatti, una lista grazie alla quale, spuntando alcune voci, un’azienda o un’organizzazione pubblica sono assolte da ulteriori responsabilità[93].

L’istituto della motivazione del provvedimento amministrativo è destinato, dunque, a rivestire una veste importante e rinnovata nell’era dell’Intelligenza artificiale. La motivazione del provvedimento amministrativo si farà più complessa di quanto non è attualmente, perché sarà volta a specificare le caratteristiche del sistema di IA che l’ha prodotta. Essa dovrà contenere tutti i riferimenti all’ambiente informatico entro cui la decisione si è sviluppata (codice sorgente), dovrà fornire tutte le informazioni circa la spiegabilità e la trasparenza degli algoritmi utilizzati, dovrà contenere i riferimenti tecnici utili a risalire all’origine della produzione del software utilizzato ed, eventualmente, al grado di contenzioso generato dalle decisioni con esso svolte, alle verifiche di efficacia prodotte nel tempo da chi lo ha immesso sul mercato, e così via. Essa rappresenterà la garanzia della tutela preventiva dei diritti del cittadino coinvolti nel procedimento, nonché la prova della comparazione degli interessi effettuata con il procedimento, anche con riferimento al tipo di precedenti presi in considerazione (ad es.: se della stessa o di altre PA).

Rimane, per il momento, l’incognita dell’effetto ‘black box’ (scatola nera) che implica il problema della mancanza di spiegazione (lack of explainability): una rete neurale non è tipicamente in grado di spiegare le sue decisioni, non basate sulla logica deterministica, non consentendo di ripercorrere a ritroso il procedimento di generazione di un dato output. Tale circostanza si riverbera evidentemente sulla motivazione della decisione adottata sulla base dell’output prodotto dal sistema di IA, con il rischio di una sostanziale elusione dell’obbligo di indicare i presupposti di fatto e le ragioni giuridiche che, proprio in relazione alle risultanze dell’istruttoria, l’abbiano determinata.

Quindi, nel caso più semplice, quello degli algoritmi condizionali, sarà sufficiente una motivazione che, sotto un profilo contenutistico e formale, non divergerà da quella che normalmente si rinviene in relazione a decisioni caratterizzate dall’esercizio di un potere vincolato interamente redatte da un agente umano senza l’ausilio di una macchina, purché sia reso disponibile il codice sorgente dell’algoritmo utilizzato e tutta la documentazione tecnica ad esso relativa.

Per quanto riguarda, invece, l’onere motivazionale di cui all’art. 3 della legge 241/1990 relativamente alle decisioni assunte dalla PA attraverso IA che utilizzano sistemi di deep o machine learning, l’algoritmo, anziché produrre un mero risultato binario, quale l’accoglimento o meno dell’istanza, dovrebbe poter generare anche un testo argomentativo formato da periodi di senso compiuto espressivi della logica giuridica applicata. Su questo testo dovrà, inoltre, essere possibile misurare la deviazione dell’algoritmo rispetto ai precedenti, nonché l’idoneità stessa dei precedenti ad informare la decisione del caso di specie. Ma non basta: occorrerà altresì verificare se i casi utilizzati in fase di apprendimento (dataset training) per realizzare il modello matematico-numerico siano effettivamente conformi alla situazione decisa[94]. Quindi, oltre al codice sorgente dovrà essere messo a disposizione anche il dataset utilizzato dall’IA per il training. Si tratterà di un onere motivazionale anche più penetrante di quanto conosciuto in passato, che potrà essere analizzato non dal singolo destinatario del provvedimento, ma da specialisti dotati anch’essi di software specificamente finalizzati alle verifiche di conformità logiche e giuridiche. Sarà necessario, in altri termini, garantire una motivazione del provvedimento che bilanci la condizione di inaccessibilità dei contenuti generati dalla macchina.

 

  1. Interferenze dell’IA con gli altri istituti del procedimento amministrativo

Anche altri istituti tipici del procedimento amministrativo ed evoluti con la legge 241/1990 e le sue modifiche avranno modo di essere utilizzati per affrontare le problematiche sopra citate.

È il caso, ad esempio, del diritto di accesso: nei casi in cui il contratto già sottoscritto dalla PA non consenta al cittadino di avere accesso al codice sorgente o alle porzioni di esso che implementano le regole (informatiche) sulla base delle quali si è presa la decisione, ovvero nei casi in cui l’interessato ritenga che la porzione di codice già pubblicato non soddisfi l’onere motivazionale, in via esclusivamente residuale si è indicata in dottrina la possibilità di accedere alla visione del codice sorgente con un’istanza di accesso ex art. 22 della l. 241/1990[95].

In generale, la trasparenza sugli utilizzi dell’IA potrebbe essere realizzata sia attraverso i siti web delle singole amministrazioni, sia con un repository centrale che, con funzione di single access point dia informazioni sui sistemi di IA in uso, sui motivi di utilizzo ed i relativi rischi[96].

In ultimo, sempre nell’ottica di fare della partecipazione uno strumento correttivo efficace, si segnala la proposta[97] in base alla quale, nell’ottica di favorire l’accoglimento della decisione da parte del privato, sarebbe altresì possibile prevedere, anche in via meramente interpretativa sulla base dell’art. 10-bis della legge 241/1990, che il privato possa tentare di contribuire a migliorare a suo favore l’output del sistema integrando i dati considerati dall’algoritmo, ovvero modificando l’istanza fintanto che questa non ricada all’interno di quei parametri che, in base ai precedenti noti al sistema di IA, consentano l’accoglimento della stessa. Ciò potrebbe essere conseguito consentendo un’interazione in cui il privato possa interpretare i risultati dell’algoritmo, e quindi interagire direttamente e senza intermediazioni con questo al fine di produrre nuovi dati o modificare quelli già inviati e così valutare in che modo possa variare la soluzione prospettata dal sistema di IA.

Utili, infine, alcuni strumenti tipici della gestione del rischio (come, ad esempio, quelli utilizzati per i farmaci): prevedere un procedimento ex ante per verificare tramite trials gli effetti del farmaco prima della sua commercializzazione; poi un controllo ex post in funzione di ‘farmaco-vigilanza’, aggiungendo meccanismi di analisi di impatto volti ad assicurare che gli algoritmi siano sempre monitorati ed aggiornati nel tempo.[98]

 

  1. L’esperienza diretta nella PA

Sono già diverse le esperienze di applicazione di sistemi algoritmici o di IA all’interno delle PA italiane.

Si va dall’incrocio di informazioni raccolte da svariate banche dati mediante tecniche di data mining (utilizzato dall’Istituto nazionale della previdenza sociale – Inps - e da Agenzia per le Entrate) per individuare indicatori di rischio di evasione o elusione fiscale o contributiva, alle esperienze di alcune città che si reinterpretano come ‘smart cities’ per risolvere annose problematiche od impostare in modo razionale ed adeguato il loro futuro (es.: Venezia: Mindcity, Padova: MyData, Trento, nonché MIND, il polo tecnologico e cittadella universitaria insediato nell’area ex EXPO2015 tra Rho e Milano)[99].

A livello generale, però, le PA e, in particolare, le amministrazioni locali (Comuni e Città metropolitane) non hanno avuto, sin qui, la forza di intraprendere progetti ad ampio respiro che prevedano l’utilizzo di IA. Lo si desume dal rapporto AIWatch sull'intelligenza artificiale della Commissione europea[100] dal quale emerge che, paradossalmente, la maggior parte delle città non affronta i principali cambiamenti sociali guidati dall’IA e dalle altre tecnologie[101].

Un primo tema rilevante, sul procedimento amministrativo automatizzato, è senz’altro quello delle competenze. La brusca accelerazione intrapresa dalle tecnologie di machine e deep learning richiederebbe un veloce adeguamento delle professionalità interne alle PA (sia politiche che dirigenziali) cui vengono proposte queste applicazioni (sotto forma di software, di sistemi robotizzati, etc.). Purtroppo, invece, l’impressione pratica è che questo tema non sia ancora considerato strategico e che il reclutamento del personale o la programmazione della formazione per i funzionari prescinda da tali questioni. Ciò costituisce un serio problema in quanto, da un lato, la struttura organizzativa della PA sarà portata o a rinunciare a servirsi di tali applicazioni o a servirsene in maniera impropria, senza la necessaria consapevolezza e non richiedendo le opportune garanzie. Dall’altro lato, una gestione compiuta dei procedimenti automatizzati richiederebbe la continua supervisione e valutazione da parte di professionisti pubblici in grado di comprendere le dinamiche generali del funzionamento di un sistema di intelligenza artificiale, effettuarne il monitoraggio continuo (su basi statistiche e anche qualitative) e dare il via libera alle scelte effettuate, eventualmente rimediando agli inevitabili errori riscontrati (specie inizialmente).

L’esperienza concreta porta a dire che attualmente l’IA ‘penetra’ nella PA in maniera episodica, quando l’ente ricerca all’esterno competenze ed esperienze tecnologiche per supportare lo svolgimento di alcuni procedimenti amministrativi che, gestiti in maniera tradizionale, comporterebbero sprechi di risorse e di tempo.

È il caso, ad esempio, delle prove concorsuali per il reclutamento di personale. Da qualche tempo assistiamo ad esperienze di concorsi pubblici svolti con l’ausilio di prove ‘preselettive’ e ‘psico-attitudinali’ gestite da algoritmi. Si tratta di prove con efficacia ‘escludente’, spesso non normate a sufficienza nei regolamenti di organizzazione e negli stessi bandi di concorso.  La loro utilità è indubbia, ma l’esperienza concreta porta a ritenere che un intervento umano ‘a completamento’ è indispensabile e, in qualche caso, si è rivelato in grado di ribaltare il giudizio espresso dall’algoritmo.

Anche l’uso di chatbot (assistenti digitali) ‘intelligenti’ si sta ampliando e perfezionando, contribuendo a semplificare la fase di approccio all’organizzazione e ad estendere senza limiti le possibilità di interazione, trattandosi di soluzioni che operano senza interruzione di tempo e ‘h24’. A questo proposito occorre molta attenzione nel non ‘immettere’ queste soluzioni in maniera dirompente laddove, in particolare nei Comuni, l’abitudine alla relazione umana e il digital divide potrebbe creare diffidenza e rifiuto.

Un’interessante sperimentazione è poi quella che concerne la configurazione di algoritmi ‘predittivi’ volti a prevenire il dissesto nei Comuni[102]. Si tratta, in pratica, di un incrocio di dati forniti dal Ministero dell’Interno e dall’Istat riguardanti i politici locali e contenenti informazioni relative all’età, al sesso, all’orientamento politico, al livello di istruzione del sindaco e degli assessori, e altre variabili di tipo territoriale. L’algoritmo di machine learning così allenato viene impiegato per poter predire, in base ai dati forniti, che rischio vi sia che un dato Comune possa finire in una situazione di default[103].

Un altro ambito pratico in cui si apriranno presto delle interessanti novità in tema di automazione decisionale con l’apporto di IA è quello degli appalti pubblici[104]. È nota la complessità della valutazione delle ‘offerte economicamente più vantaggiose’ che richiede di incrociare informazioni di carattere tecnico ed economico al fine di effettuare una valutazione comparativa (spesso anche in divenire, con riferimento ai contratti di prestazioni di servizi, ad esecuzione periodica e continuata). Con l’aiuto dell’Intelligenza artificiale il progetto posto a base di gara dalla PA potrà essere trasposto (con il Capitolato) in un’architettura preventiva di fattori valutativi, con range di risultati predeterminati, che potranno consentire una scelta più equilibrata e ponderata delle offerte migliori, la cui sostenibilità (tecnica ed economica) nel tempo potrebbe essere prefigurata più adeguatamente già in sede di aggiudicazione, rispetto a ciò che oggi la valutazione umana può ambire a fare.     

Siamo comunque, per il momento, lontani dall’utilizzare adeguatamente la miniera di dati che le PA producono quotidianamente. I Comuni, i loro territori, gli impianti che gestiscono direttamente o tramite le loro società partecipate o le loro concessionarie, sono dei veri e propri ‘sensori’ atti a registrare e a fornire informazioni, dati e trend in tempo reale. È un peccato che questa quantità di informazioni si perda a causa di strutture tecnologiche inadeguate e per mancanza di una visione strategica più complessiva. Si deve evitare la frammentarietà e l’episodicità che hanno caratterizzato il ventennio passato del passaggio alla fase digitale dell’attività amministrativa.  Per far ciò occorre che la spinta all’implementazione di sistemi di Intelligenza artificiale venga sostenuto da una governance chiara e competente e da strategie innovative che consentano sperimentazioni avanzate laddove ci siano volontà e risorse per intraprenderle.

 

  1. Conclusioni

Con il supporto degli algoritmi e con l’evoluzione dei sistemi di Intelligenza artificiale[105] certi standard  dell’azione amministrativa saranno inevitabilmente destinati a migliorarsi[106].  Diverse PA - all’interno delle loro organizzazioni o nell’ambito di vere e proprie ‘smart cities’ - si servono oggi della capacità degli algoritmi di effettuare scelte su enormi quantità di dati per gestire i quali non servono più centinaia di impiegati, pile di carta e diversi mesi di istruttoria, ma un computer e qualche millesimo di secondo. Ma è anche dal punto di vista qualitativo che il supporto dell’intelligenza artificiale è in grado di modificare radicalmente lo scenario della decisione amministrativa. Se, infatti, pare ormai assodato e ampiamente accettato che un’attività procedimentale vincolata possa essere fondamentalmente svolta in modalità automatizzata, anche determinazioni che comportano ponderazioni, valutazioni, controlli, raffronti, etc. sono passibili di essere veicolate attraverso le dinamiche dell’IA. Ciò comporta però l’emergere di una serie di criticità – dal punto di vista delle categorie giuridiche tradizionali – la cui risoluzione è ancora oggetto di discussione teorica.

Da un punto di vista dello sviluppo dei servizi, anche per le PA possiamo ragionevolmente prevedere un’evoluzione tecnologica sempre più imponente. Il cambiamento - già in corso - sta riguardando ogni materia di intervento della PA, sia centrale che locale: dall’urbanistica e dall’edilizia agli appalti pubblici, dai servizi sociali e dalla sanità ai trasporti ed alla mobilità. Si assiste allo sviluppo di sistemi di IA sempre più sofisticati di prenotazione telefonica e di infoline collegati a programmi di riconoscimento del linguaggio per accompagnare gli utenti attraverso i labirinti della burocrazia. Ma ci sono già esempi di applicazione di IA avanzate nel campo della pianificazione urbanistica, nella strutturazione dei servizi a domanda individuale, della loro tariffazione e riscossione (come succede con i sistemi di prenotazione ferroviaria ed aerea).  Per non parlare dei sistemi di sicurezza e sorveglianza che utilizzano tecnologie di IA e di data mining sempre più sofisticate per analizzare video, volti, voci, testi, raccolti in grandi quantità e conservati in giganteschi centri di raccolta dati.

In conclusione è evidente la necessità di ripensare le categorie giuridiche che hanno tradizionalmente accompagnato l’attività della PA e il procedimento amministrativo normato dalla legge 241/1990[107]. L’automazione della fase decisionale di un procedimento amministrativo rappresenta la ‘conclusione naturale’ di una evoluzione tecnologica e giuridica che ha caratterizzato e sta caratterizzando l’organizzazione amministrativa di molti paesi. L’intelligenza artificiale, in particolare, può svolgere in misura sempre più ampia e completa le funzioni e i compiti di un ‘funzionario’[108]. Si tratta di un vero e proprio cambio di paradigma.

Occorre, di rimando, comprendere che l’applicazione di una IA non adeguatamente tarata per definire gusti e preferenze del pubblico in ambito commerciale, nelle piattaforme di streaming e nei siti di e-commerce, può portare, al più, il fastidio di segnalazioni inadeguate sui consumi culturali o sugli acquisti. Ma se il sistema venisse usato per l’accesso al credito, la giustizia, la polizia predittiva, l’attribuzione di diritti, la medesima inadeguatezza in termini di classificazione o di analisi potrebbe portare ad esiti catastrofici e, cosa ancor peggiore, non consentirebbe di attribuire la responsabilità di quelle raccomandazioni[109].

Le decisioni automatiche, nel campo giuridico, intervengono per modificare lo status quo. Al momento non è possibile valutarne l’efficienza o l’accuratezza se non attraverso l’identificazione di strategie di misurazione e di metodi di verifica delle procedure (audit), riguardanti la serie generale dei risultati finali (output) che possono essere accreditati solo retrospettivamente.

Si è del parere, però, che non bisogna alimentare la visione contrapposta di ‘macchina vs umano’ perché questo, si è anche sostenuto autorevolmente, ‘pervade di un ingiustificato senso di minaccia la dialettica che, invece, occorrerebbe instaurare tra i due universi e che potrebbe segnare la traiettoria del progresso’[110]. La logica degli opposti (che provocatoriamente si è voluta adottare in questo scritto per far risaltare meglio i nuovi dilemmi etico-giuridici) non descrive insomma, nella sua complessità, la discussione intorno al nuovo diritto e alla legittimazione dell’innovazione tecnologica che da esso dovrà derivare[111]. Il diritto non può abdicare alla sua funzione di garantire la più ampia possibilità di accesso alle opportunità crescenti offerte dall’innovazione scientifica e tecnologica, ma dovrà farlo non mettendo due antropologie a confronto, piuttosto attraverso un processo di costruzione continuo[112], un processo di ‘ricucitura’[113] tra prospettive diverse ma presenti entrambe in una realtà le cui frontiere sono ormai mobili e in cui pare ancora possibile ‘concepire istituzioni e pratiche capaci di decidere come organizzare l’intelligenza artificiale senza necessariamente difendere e conservare per principio un modello esemplare di essere umano, prendendo la tecnologia per quello che rappresenta: un’interfaccia per rapportarsi socialmente tra esseri umani, ma anche una connessione con gli altri viventi e il mondo inorganico’[114].

In altri termini, nel rapporto con l’IA l’uomo potrà anche non essere sempre il centro ma, a volte, anche la periferia. È questo, forse, il senso dialettico del nuovo umanesimo.

 

 

 

 

 

*Segretario comunale e Data Protection Officer  - L’Autore desidera ringraziare l’Avv. Elettra Currao per i preziosi consigli.

[1] Schwab K. The fourth industrial revolution, London, 2015 (trad. italiana La quarta rivoluzione industriale, Franco Angeli, 2016). Ma l’origine del termine è da attribuire ai tedeschi Kagermann H., Lukas W.D. e Wahlster W. che lo impiegarono per la prima volta in una comunicazione tenuta alla Fiera di Hannover del 2011. Sul tema Floridi L. Quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano 2017.

[2] Come ricorda Cerrina Feroni G., Intelligenza artificiale e protezione dei dati personali: percorsi di analisi, in Cerrina Feroni G., Fontana C., Raffiotta E.C. (a cura di), AI Anthology – Profili giuridici, economici e sociali dell’intelligenza artificiale, Bologna, 2022, pag.24: “era il 1955 quando John McCarthy, un informatico statunitense, utilizzò per la prima volta l’espressione “intelligenza artificiale”. Per approfondimenti sulle origini del termine si veda anche Santosuosso A., Tomasi M. Diritto, scienza, nuove tecnologie, Milano, 2021, pagg. 296 e segg.

[3] Come si può evincere leggendo il “Programma Strategico Intelligenza Artificiale (IA) 2022-2024”, a cura del Governo Italiano - Ministeri dell'Università e della Ricerca, dello Sviluppo Economico e dell'Innovazione tecnologica e la Transizione Digitale (Roma, 24.11.2021).

[4] Pensiamo all’utilità che una compagnia assicurativa potrebbe trarre dai dati detenuti dalle PA sui comportamenti tenuti (violazioni al codice della strada, manutenzione dei propri  veicoli) e sulle attività di prevenzione seguite (screening periodici, formazione) dai propri clienti (e cittadini). A tal proposito si veda: Lee Kai-Fu, Quifan Chen AI 2041: scenari dal futuro dell’Intelligenza artificiale, Roma, 2023 (in particolare l’episodio dal titolo ‘L’elefante d’oro’, pag. 23 e segg.).

[5] Questa definizione del processo algoritmico è tratta da Nowotny H., Le macchine di Dio, LUISS Roma, 2022, pag.59. 

[6] Consiglio di Stato, Sez.VI, sentenza 8 aprile 2019 n.2270.

[7] Pascuzzi G. Il diritto dell’era digitale, Bologna, 2020. Per gli studi antesignani sul tema si veda Predieri A. Gli elaboratori elettronici nell’Amministrazione dello Stato, Bologna, 1971 e Rodotà S. Tecnologie e diritti, Bologna, 1995. Per una panoramica più recente, si vedano: Pesce G. Funzione amministrativa, intelligenza artificiale e blockchain, Napoli, 2021; Barone A., Orofino A.G., Torrijos J.V. (a cura di) The use of Artificial Intelligence by Public Administration, in European Review of digital Administration & Law, nn. 1-2, 2020, e la ricerca promossa dalla rivista Astrid: Pajno A., Donati F., Perrucci A. (a cura di) Intelligenza artificiale e diritto: una rivoluzione?, in 3 volumi (in particolare: vol. 2 – Amministrazione, responsabilità, giurisdizione), Bologna, 2022.

[8] Trimarchi F. Il procedimento amministrativo fra riforme legislative e trasformazione dell’amministrazione, Milano 1990, in cui si dà conto della proposta elaborata dalla Commissione ‘Nigro’ raffrontandola con il testo legislativo approvato il 7 agosto 1990 (Legge n. 241/1990). Per una lettura attuale e critica sullo stato del procedimento amministrativo (e delle sue riforme) in Italia: Travi A. Pubblica amministrazione: burocrazia o servizio al cittadino, Milano 2022. Sull’evoluzione del rapporto tra procedimento amministrativo e sviluppo tecnologico si rimanda agli studi di Masucci A. L’atto amministrativo informatico, Napoli, 1993 e Procedimento amministrativo e nuove tecnologie, Torino, 2011.

[9] Torchia L. Lo stato digitale, Bologna, 2023, pagg. 126 e segg.

[10] È questo, ad esempio, l’oggetto della sentenza del Consiglio di Stato n. 8472 del 13.12.2019 nella quale si legge: “l’utilizzo di una procedura informatica che conduca direttamente alla decisione finale non deve essere stigmatizzata, ma anzi, in linea di massima, incoraggiata”, salvo poi pervenire all’annullamento della sentenza del T.A.R. Lazio (sez. III) n.9230/2018 in quanto “l’algoritmo non risulta essere stato utilizzato in termini conformi ai principi predetti” (conoscibilità, non esclusività e non discriminazione - vedi anche infra).

[11] Sul punto T.A.R. Campania, sez. III, 14.11.2022 n. 7003 per il caso dell’applicazione da parte di Agea di un nuovo algoritmo di calcolo che ha accertato indebite percezioni di importi sulla misura 13.1.1 “Indennità compensativa zone montane” del PSR Campania 2014 – 2020.

[12] Cfr. Marongiu D., Pubblica amministrazione e tecnologie emergenti – Algoritmo e procedimento amministrativo: una ricostruzione, in Giurisprudenza italiana, 2022, 6, pag. 1507.

[13] Esempi di automazione decisionale oggi già presenti nelle PA sono: gli avvisi di accertamento fiscale, le valutazioni automatiche delle prove preselettive dei concorsi, le aste elettroniche per l’aggiudicazione di beni e servizi, le compilazioni delle graduatorie per le assegnazioni di sede nella scuola, etc. (cfr. Marongiu D., op. cit: per l’Autore “non siamo di fronte ad un recedere, bensì ad un riconfigurarsi delle dinamiche di esercizio del potere”).

[14] Come ricorda Simeoli D. L’automazione dell’azione amministrativa nel sistema delle tutele di diritto pubblico, in Pajno A., Donati F., Perrucci A. (a cura di) Intelligenza artificiale e diritto: una rivoluzione?, op. cit., pag. 628, sono già numerose anche in Italia le fattispecie di attività delle PA automatizzate con algoritmi “di apprendimento”. Si va dai servizi digitali complessi (App IO e Piattaforma nazionale notifiche) alle funzioni di enforcement (c.d. predictive policing) come i sistemi antifrode utilizzati da INPS e Agenzia delle Entrate, alle funzioni di adjudication (aste elettroniche e gare telematiche, concorsi pubblici, utilizzo di clustering per raggruppare in modo automatico le richieste di benefits). Anche se rimane preponderante l’impiego di algoritmi deterministici in procedimenti vincolati (sanzioni al Codice della Strada, procedure preselettive nei concorsi, concessione di contributi e bonus).

[15] Sartor G. Le applicazioni giuridiche dell’intelligenza artificiale, Milano, 1984: “per poter applicare il precetto normativo mediante computer, questo precetto deve essere ricostruibile secondo lo schema Se (If) … Allora (Then)”, pag. 336.

[16] Nel machine o deep learning la macchina viene addestrata (training), non programmata. Non c’è la fase di modellazione di un fenomeno da parte di un esperto umano. Per far questo si possono usare diverse tecniche. Una tecnica molto utilizzata è quella delle reti neurali (neural networks) che sono la vera scoperta del secolo. Cfr. Traverso P. Breve introduzione tecnica all’Intelligenza artificiale, in DPCE on-line, 1/2022, pag.155. I risultati dell’apprendimento profondo con le reti neurali su problemi di visione artificiale (computer vision) o di elaborazione del linguaggio naturale sono stati semplicemente strabilianti in questi ultimi anni (si veda lo scalpore mediatico suscitato di recente dal sistema conversazionale ChatGpt (Generative pre-trained Transformer) o Gpt-3, sulle cui caratteristiche e per alcune riflessioni (anche critiche) si rinvia a De Ascentiis M. Intelligenza conversazionale, lo sviluppo fa leva sull’AI, in Inno3, 10.01.2023, e ChatGpt: evoluzione, limiti, modalità d’uso intelligente, Inno3, 18.01.2023. Gpt-3 è una gigantesca macchina di ‘trasduzione di sequenza’ che impara ad analizzare il linguaggio da un modello così grande da includere quasi ogni concetto immaginabile. Gpt-3 è stata addestrata con oltre 45 terabyte di dati di testo, che richiederebbero circa 500 mila vite per essere letti da un essere umano (cfr. Lee Kai-Fu, Qiufan Chen, op. cit., pag. 127).

[17] Si tratta del c.d. ‘apprendimento autosupervisionato’ nel quale la IA supervisiona sé stessa e non è richiesta alcuna etichettatura umana (cfr. Lee Kai-Fu, Qiufan Chen, op. cit., pag. 126).

[18] Macchia M., Mascolo A. Intelligenza artificiale e regolazione in Pajno A., Donati F., Perrucci A. (a cura di) Intelligenza artificiale e diritto: una rivoluzione? op. cit., pag.103. A tal proposito anche Consiglio di Stato sez.III, sentenza n.7891 del 25/11/2021.

[19] Cfr. Notarmuzi C. Il procedimento amministrativo informatico, Altalex 15/12/2007. Le prime normative relative alla digitalizzazione procedimentale nelle P.A. risalgono agli anni Novanta (tra le principali: D.lgs. 12/02/1993 n. 39, ‘norme in materia di sistemi informativi automatizzati nella pubbliche amministrazioni’; legge 13 marzo 1997, n. 59, sulla necessità di una rete di collegamento per il trasporto dei dati tra le pubbliche amministrazioni; d.P.R. 10 novembre 1997, n. 513, sui contenuti tecnologici del documento informatico e della firma elettronica e sulle modalità di trasmissione telematica dei documenti elettronici). L’Autore critica (giustamente) l’andamento ‘carsico’ dell’agire delle P.A., ‘nel quale l’utilizzazione delle tecnologie informatiche era solo strumentale ad una successiva trattazione cartacea’.

[20] Codice dell’Amministrazione Digitale (CAD), adottato con d.lgs. 7 marzo 2005, n. 82, modificato con i decreti legislativi n. 179 del 2016 e n. 217 del 2017 (e relative ‘linee guida’ emanate dall’AgID).

[21] La differenza di approccio e le incomprensioni tra due universi distinti (quello degli ‘informatici’ e quello dei ‘giuristi’) sono ben messe in luce dal parere sul CAD n. 11995 del 2005 con il quale il Consiglio di Stato  ha affermato che ‘nulla stabilendosi in relazione alle varie fasi del procedimento amministrativo, non si percepisce il vantaggio che dall’informatizzazione del procedimento può derivare al cittadino e utente di pubblici servizi’ (citato da Pannocchia I. Azione amministrativa ed innovazioni tecnologiche, in Massera A. (a cura di), La riforma della legge 241/1990 sul procedimento amministrativo: una prima lettura, www.astrid-online.it, 2005.

[22] Così Masucci A., Procedimento amministrativo e nuove tecnologie, op. cit., pag. 1, il quale, con pregevole anticipo, aggiunge: “il vecchio binomio funzionario/carta che ha accompagnato per secoli l’elaborazione ed adozione degli atti amministrativi, viene sostituito dalle ‘machine à penser’, da macchine dotate di intelligenza artificiale. In breve, la macchina-computer può elaborare e produrre essa stessa atti amministrativi” (pag. 2).                          .

[23] Masucci A., Procedimento amministrativo e nuove tecnologie, op. cit., pag.13, parla di ‘telematizzazione’ della fase preparatoria del procedimento.

[24] A livello nazionale si sta perfezionando lo sforzo di uniformare gli standard procedimentali digitali con il lancio, di recente, del progetto ‘Sistema di Gestione dei Procedimenti Amministrativi’ (SGPA) che riguarda da vicino alcuni aspetti di supporto che sorreggono il percorso ‘immateriale’ e formale del procedimento amministrativo: il protocollo informatico, la gestione documentale e la conservazione dei dati. Si tratta di un sistema uniforme utilizzato dalle PA per gestire il ciclo di vita dei ‘Documenti Amministrativi Informatici’ (DAI) a partire dalla loro formazione/ricezione per giungere fino alla loro archiviazione e/o trasmissione, nell’esercizio delle diverse funzioni istituzionali.

[25] È stata attivata, di recente, la Piattaforma Digitale Nazionale Dati (PDND). Il progetto, previsto dal Piano nazionale di ripresa e resilienza (PNRR), del Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei Ministri e di PagoPA S.p.A, abilita lo scambio di informazioni tra gli Enti e la Pubblica Amministrazione e favorisce l’interoperabilità dei sistemi informativi e delle basi dati pubbliche.

[26] Su effettività ed efficacia del cambiamento nell’ambito della digitalizzazione del settore pubblico (in particolare nei Comuni) e sulle oggettive difficoltà delle PA ad affrontare la rivoluzione digitale rinvio alle considerazioni esposte in Bottari M. Ripensare i Comuni, Varese, 2020, pagg. 128 e segg., in cui si cita il “Referto al Parlamento sull’attuazione del Piano triennale dell’Informatica 2017-19 negli Enti territoriali”, approvato con la deliberazione della Corte dei Conti Sezione Autonomie n.15/SEZAUT/2020/VSGO, dal quale si trae questo sconfortante giudizio: “se si dovessero valutare i dati prendendo in considerazione la sola capacità di adattamento ai cambiamenti e alle innovazioni, dovremmo purtroppo giungere alla conclusione che nella PA ancora si registra una certa resistenza al mutamento, sia da parte delle istituzioni che da parte degli utenti”. Per quanto riguarda il settore pubblico, le stesse potenzialità di sviluppo dell’IA sono fortemente legate al processo di digitalizzazione del Paese. Secondo lo studio E-Government Benchmark 2020 della Commissione Europea, l'Italia è caratterizzata da un basso livello di penetrazione (25% vs 60% EU27+UK) e un livello medio di digitalizzazione (71% vs 72% EU27+UK). Permane quindi un divario tra l'offerta di servizi digitali e il loro effettivo utilizzo.

[27] Cfr. Masucci A., op. cit., pag. 82.

[28] Bostrom N. Superintelligenza: tendenze, pericoli, strategie, 2018 (ed. orig. Superintelligence: path, dangers, strategies, 2014).

[29] Tegmark M. Vita 3.0 - Essere umani nell’era dell’intelligenza artificiale, Milano, 2018. Si parla, in tal caso, di ‘Singolarità’.

[30] In tal senso Pajno A. La costruzione dell’infosfera e le conseguenze sul diritto, in Pajno A., Donati F., Perrucci A. (a cura di) Intelligenza artificiale e diritto: una rivoluzione?, op. cit., pag.21.  

[31] Per Rodotà S., Il diritto di avere diritti, Bari, 2012: “semplificando assai, si può dire che questa è una norma generale sulla distribuzione del potere di decisione nel mondo digitale” (pag. 328).

[32] Art. 22 par.1 del GDPR: “L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”.

[33] Per Cerrina Feroni G., Intelligenza artificiale e protezione dei dati personali: percorsi di analisi, in Cerrina Feroni G., Fontana C., Raffiotta E.C. (a cura di), op. cit., pag. 36: “l’art.22 dovrebbe essere letto insieme agli artt. 13 e 14 e al Considerando 71 del GDPR per l’obbligo informativo previsto per il titolare del trattamento che impone a quest’ultimo di rendere nota all’interessato l’esistenza di un processo decisionale automatizzato che lo riguarda e di fornire chiarimenti significativi sulla logica utilizzata, nonché sull’importanza e sulle conseguenza previste, per la sua persona, a seguito di tale trattamento”. Nel Considerando 71, inoltre, “viene proclamato il principio di non discriminazione (per razza, opinioni politiche, religione, etc.), non riprodotto nel testo del GDPR” e, come tale, definito “principio mancante” o “latente” (pag.37).  

[34] Per Frosini T.E. La privacy nell’era dell’intelligenza artificiale, in Cerrina Feroni G., Fontana C., Raffiotta E.C. (a cura di), op. cit., pag. 306 : “sembra quasi che il GDPR finisca col mettere vino vecchio in otri nuovi” e che lo stesso “non appare adeguato a disciplinare le applicazioni di IA”.

[35] Commissione Europea Libro Bianco sull’intelligenza artificiale – un approccio europeo all’eccellenza e alla fiducia, Bruxelles, 19.02.2020; Commissione Europea Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, Bruxelles, 21.04.2021 (COM 2021-206). La Proposta di Regolamento UE “presenta alti standard di tutela e conferma che il cuore del sistema è da individuare negli strumenti già posti in essere nel GDPR”, così Cerrina Feroni G., Intelligenza artificiale e protezione dei dati personali: percorsi di analisi, in Cerrina Feroni G., Fontana C., Raffiotta E.C. (a cura di), op. cit., pag. 39, la quale, tuttavia, precisa che “il carattere di maggiore rigidità di tali norme rispetto al panorama internazionale potrebbe mettere l’Europa nel mirino dei suoi alleati: gli Stati Uniti”, ventilando la questione ‘geopolitica’ della sorveglianza mondiale sull’IA (su cui, per approfondimenti, si veda il numero 12/2022 della rivista italiana di geopolitica Limes - L’intelligenza non è artificiale, op.cit.). E ciò, si aggiunga - ma non solo - può contribuire a spiegare lo stallo nell’approvazione del Regolamento UE sull’IA (l’altro fattore è dato dal fatto che il bilanciamento di interessi operato dal GDPR condiziona già le industrie europee di sviluppo dell’AI che non sono incentivate a sviluppare tecnologie proibite dal GDPR, mentre ad esempio in Paesi dove non vige il GDPR (come la Cina) il dato viene utilizzato nella sua massima espressione per addestrare modelli. Secondo Massa A., intervento su ‘Con le nuove macchine risolviamo i vecchi problemi italiani’, in Limes rivista italiana di geopolitica, 12/2022, op. cit., pag. 148, “sia pur nel rispetto dei diritti civili e umani, delle leggi e dei principi etici, bisogna agire ‘cum grano salis’, ovvero considerando l’impatto complessivo di una normativa che un giorno magari rimarremo gli unici ad osservare”.

[36] Cfr. Pinotti G. Amministrazione digitale algoritmica e garanzie procedimentali, in Labour&Law Issues, vol.7 n.1/2021.

[37] L’art. 3, c. 1 del D.Lgs. n. 39/1993 recitava: “Gli atti amministrativi adottati da tutte le pubbliche amministrazioni sono di norma predisposti tramite i sistemi informativi automatizzati”. La norma è stata abrogata dall’art. 64, c. 2 del D.lgs. n. 179/2016. Il riferimento all’automatizzazione non riguardava, però, gli algoritmi e l’IA, non pensabili all’epoca.

[38] Secondo Macchia M. Pubblica amministrazione e tecniche algoritmiche, in DPCE on line 1/2022, invece: “non vi è allo stato un problema di base normativa, bensì al contrario un obbligo per gli enti pubblici di ridefinire i procedimenti verso una sempre maggiore digitalizzazione”.

[39] Come già messo in luce da Avanzini G., Decisioni amministrative e algoritmi informatici. Predeterminazione, analisi predittiva e nuove forme di intellegibilità, Napoli, 2019, p. 41.

[40] In esecuzione della legge delega 21.06.2022, n. 78 che, all’art.1 lett. t), fa espresso riferimento alla possibilità, per le stazioni appaltanti, di ricorrere a procedure automatizzate nella valutazione delle offerte.

[41] Macchia M., Mascolo A. Intelligenza artificiale e regolazione in Pajno A., Donati F., Perrucci A. (a cura di) Intelligenza artificiale e diritto: una rivoluzione? op. cit., pag.101. Per Lee Kai-Fu, Quifan Chen, AI 2041, op.cit.: “gli obiettivi del GDPR (trasparenza, responsabilità e riservatezza) sono ben intenzionati e persino nobili. Eppure è improbabile che l’attuale implementazione riuscirà a raggiungere questi obiettivi e potrebbe, per molti versi, essere perfino controproducente. Per esempio, è difficile limitare gli obiettivi per cui ogni dato viene raccolto, perché l’IA è un esercizio diffuso e non è possibile enumerare tutti gli scopi per cui ogni dato raccolto sarà usato all’inizio della raccolta” (pag. 403).

[42] La blockchain è stata introdotta nell’ordinamento giuridico italiano nel 2018, con il D.L. n.135/2018, convertito in L. n.12/2019. 

[43] La blockchain è considerata inattaccabile perché viene distribuita fra innumerevoli computer sulla rete Internet che utilizza protocolli di comunicazione condivisi. Inoltre la sicurezza è ulteriormente garantita grazie a diverse procedure crittografiche. In conseguenza di tale evoluzione tecnologica sono destinati a scomparire i registri gestiti in maniera centralizzata da autorità riconosciute e regolamentate (pubbliche amministrazioni, banche, assicurazioni, notai, intermediari di pagamento).

[44] Gallone G. Blockchain e big data nel settore pubblico: spunti in tema di G.D.P.R. compliance, in Federalismi.it n. 14/2022 del 18.05.2022, pag. 67.

[45] Per queste e altre nozioni di base sulla blockchain si rimanda a: Santosuosso A., Tomasi M., op. cit. pag. 379 e segg.

[46] Ma per Rubechini P. Blockchain  e pubblica amministrazione italiana: i primi passi di un cammino ancora lungo, in Giornale di Diritto amministrativo, n.3/2021, pag.298, al di là della previsione normativa mancano “direttrici concrete per una successiva fase applicativa in ambito pubblico”, e che, addirittura “questa timidezza normativa sembra oggi essersi trasformata in inerzia, poiché l’AGId - chiamata dall’art. 8-ter, D.L. n. 135/2018 ad individuare gli standard tecnici che le tecnologie basate su registri distribuiti debbono possedere ai fini di una loro reale operatività - non ha ancora provveduto in questo senso”.

[47] Art.8 ter c.2 del D.L. 135/2018: “si definisce «smart contract» un programma per elaboratore che opera su tecnologie basate su registri distribuiti e la cui esecuzione vincola automaticamente due o più parti sulla base di effetti predefiniti dalle stesse”.

[48] Rubechini P., op. cit., cita l’esperienza ‘Nidi gratis’ di Regione Lombardia in cui almeno il 95% delle transazioni con i richiedenti il ‘bonus’ economico non ha richiesto un intervento decisorio umano.

[49] Cfr. Cerulli Irelli V. Verso un più compiuto assetto della disciplina generale dell’azione amministrativa, in Astrid Rassegna n. 4/2005.

[50] La natura ‘contrattuale’ degli smart contract è però messa in discussione perché la legge, con la definizione che ne dà, sembra prendere una posizione mediana tra la natura di ‘software’ e quella di veri e propri ‘contratti’. Sul punto, più diffusamente e con riferimento anche ai c.d. ‘contratti computabili’ si veda: Santosuosso A. Intelligenza artificiale e diritto. Perché le tecnologie di IA sono una grande opportunità per il diritto, Milano, 2020, pp.121 e segg.

[51] Lo Faro A. ‘Algorithmic decision making’ e gestione dei rapporti di lavoro: cosa abbiamo imparato dalle piattaforme, in Federalismi.it n.25 del 5.10.2022 pag.189: “l’automazione di processi di decisione affidati a sistemi algoritmici si traduce in buona sostanza in una serie di selezioni: selezioni all’entrata, selezioni nella gestione e in uscita dal rapporto di lavoro” (è il caso, ad esempio, degli algoritmi che regolano le attività dei c.d. ‘riders’ del ‘delivery’, consegna del cibo a domicilio, sviluppatasi a dismisura durante la pandemia da Covid-19).

[52] “Siamo di fronte a questioni che riguardano l’autonomia e il diritto di sviluppare liberamente la propria personalità. Si assiste a una diminuzione della possibilità di ciascuno di conoscere e costruire il sé, mentre diventa più forte la possibilità di altri di impadronirsi integralmente del nostro essere”: Rodotà S. op. cit, pag. 327. È ormai comunemente utilizzato il termine «capitalismo della sorveglianza», coniato da Shoshanna Zuboff per identificare questa nuova forma di capitalismo, il cui obiettivo non si limita ad osservare e a controllare i comportamenti delle persone, ma mira, invece, a manipolarne le scelte. Cfr. Zuboff S., Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Roma, 2019.

[53] Carloni E. I principi della legalità algoritmica. Le decisioni automatizzate di fronte al giudice amministrativo, in Diritto Amministrativo, 2/2020.

[54] Cfr. Corradino M. Intelligenza artificiale e pubblica amministrazione: sfide concrete e prospettive future (intervento pubblicato sul sito della Giustizia Amministrativa).

[55] Simeoli D. L’automazione dell’azione amministrativa nel sistema delle tutele di diritto pubblico, in Pajno A., Donati F., Perrucci A. (a cura di) Intelligenza artificiale e diritto: una rivoluzione? op. cit., pag.623.

[56] Cfr. Risso F. L’automazione nelle relazioni di diritto pubblico, in Cerrina Feroni G., Fontana C., Raffiotta E.C. (a cura di), op. cit., pag. 608.

[57] Francia e Spagna (e in parte anche Germania, ma solo per le decisioni automatizzate di tipo vincolato) forniscono già una base legale all’impiego di IA da parte della PA (si veda ad es.: Code des relations entre le pubblic et l’administration, art. 1.311-3-1). 

[58] Per Torchia L., op. cit.: “nel caso in cui il potere di decidere mediante ricorso ad algoritmi sia considerato un potere nuovo, che si aggiunge ed è complementare al tradizionale potere amministrativo, l’applicazione rigorosa del principio di legalità porterebbe a ritenere che sia necessaria una espressa e specifica abilitazione legislativa caso per caso” (pag. 116-7).

[59] Consiglio di Stato, Sez. VI 2270/2019, cit., in cui si fa prevalere il diritto alla trasparenza su ogni altro tipo di diritto toccato dalla procedura informatica, compreso il diritto d’autore (in passato inteso dalla stessa giurisprudenza amministrativa come limite invalicabile per il diritto di accesso), con la conseguenza che le aziende produttrici dei meccanismi informatici utilizzati nella procedura non potranno invocare la riservatezza dell’algoritmo dal momento che, “ponendo al servizio del potere autoritativo tali strumenti, all’evidenza ne accettano le relative conseguenze in termini di necessaria trasparenza”. Si veda anche Consiglio di Stato, Sez. VI sentenza del 13/12/2019 n. 8472.

[60] Papa A. Intelligenza artificiale e decisioni pubbliche tra tecnica, politica e tutela dei diritti, in Federalismi.it, n.22 del 10.08.2022, pag. 101 e segg. L’Autrice segnala la necessità “che sia un’Autorità specifica ad occuparsi e ad intervenire sulla definizione e sul controllo dei processi algoritmici che sempre più caratterizzeranno la sfera delle decisioni pubbliche” (pag. 113-4).

[61] Anche per Falletta P.S.L. Le trasformazioni del diritto amministrativo nella complessità dell’ambiente digitale, in Federalismi.it n.23/2002 del 7/09/2022 “la pretesa che la formula e il funzionamento dell’algoritmo risultino conoscibili e comprensibili si rivela estremamente debole di fronte agli strumenti di machine learning e deep learning, non sempre intellegibili secondo criteri logico-razionali”, pagg. 135-6. Anche per Torchia L., op. cit., pag. 113: “la trasparenza è un succedaneo ad efficacia limitata, perché l’informazione non sempre equivale a conoscenza o comprensione”.

[62] Cfr. Costantino F. Pubblica amministrazione e tecnologie emergenti – Algoritmi, Intelligenza artificiale e Giudice amministrativo, in Giurisprudenza Italiana, 2022, n.6.

[63] Sempre Costantino F., op. cit.

[64] Consiglio di Stato, Sez. VI, sentenza 26 gennaio 2021 n.799.

[65] Consiglio di Stato, Sez. III, sentenza 25 novembre 2021 n. 7891.

[66] La definizione richiamata è tratta, in realtà dalla sentenza del Tribunale Amministrativo Regionale per la Lombardia (Sezione Seconda) n. 843/2021, giudicato in appello dalla Sez.III del C.d.S. 7891/2021.

[67] Esistono, invece, già alcune pronunce giurisprudenziali in altri Paesi europei sulla compatibilità del machine e deep learning con l’azione amministrativa: per il Conseil Constitutionnel francese non possono essere utilizzati algoritmi ‘atti a rivedere da soli le regole cui si applicano ad una decisione amministrativa individuale senza il controllo e la convalida del responsabile’. Anche in Olanda la Corte del Distretto di The Hague (5.02.2020) si è pronunciata per l’inconciliabilità di questo tipo di uso di algoritmi non solo con i diritti fondamentali dei cittadini ma altresì con i principi generali dell’azione amministrativa. Si veda Avanzini G. Intelligenza artificiale, machine learning e istruttoria procedimentale: vantaggi, limiti ed esigenze di una specifica data governance, in Pajno A., Donati F., Perrucci A. (a cura di) Intelligenza artificiale e diritto: una rivoluzione? op. cit., pagg- 88-92.

[68] Macchia M., Mascolo A. Intelligenza artificiale e regolazione in Pajno A., Donati F., Perrucci A. (a cura di) Intelligenza artificiale e diritto: una rivoluzione? op. cit., pag.104.

[69] Nowotny H., op. cit. pag. 137 e segg., che fa proprie le argomentazioni poste da Coyle D., Weller A. Explaining machine learning reveals policy challenges, in Science, vol. 368, n. 6498, 2020, pag. 1433.

[70] Sempre Nowotny H., op.cit. pag.138.

[71] Macchia M., Pubblica Amministrazione e tecniche algoritmiche, in DPCE on-line 1/2022: la ‘ragionevolezza’ del provvedimento è un attributo che resta appannaggio dell’intelligenza umana.

[72] Parona L. Poteri tecnico-discrezionali e machine learning: verso nuovi paradigmi dell’azione amministrativa in Pajno A., Donati F., Perrucci A. (a cura di) Intelligenza artificiale e diritto: una rivoluzione? op. cit., pag.131.

[73] Cfr. Marongiu D., op. cit.

[74] Simeoli D., L’automazione dell’azione amministrativa nel sistema delle tutele di diritto pubblico, in Pajno A., Donati F., Perrucci A. (a cura di), op. cit., pag. 639, propone l’introduzione del c.d. ‘documento dei requisiti’, un atto di diritto pubblico che rappresenterebbe un medium tra l’atto normativo (che enuncia la specifica missione, e il codice sorgente, che contiene  le istruzioni e i dati informatici da elaborare). Tale documento si porrebbe come il “punto di riferimento necessario per le contestazioni giuridiche del cittadino e per la ripartizione di eventuali responsabilità tra amministrazione e produttore del software”. Secondo questo Autore “l’unico modo di ovviare all’opacità delle black boxes è quello di potere ottenere una revisione umana della decisione pubblica, cioè l’adozione di un atto che, motivatamente, validi o smentisca la decisione automatica”. Ciò comporterebbe, per il momento, un inevitabile (e quasi scontato) ricorso alla decisione umana nel caso di provvedimenti sfavorevoli.

[75] Cfr. Papa A., op. cit., pag.113. Per Falletta P.S.L., op. cit. pag. 136: ‘Il contributo umano si risolve in un momento pre-decisionale, ossia nell’immissione di dati di input che verranno poi processati dagli automatismi informatici’. Per Marchetti B. La garanzia dellohuman in the loop’ alla prova della decisione amministrativa algoritmica, in BioLaw Journal – Rivista di BioDiritto, 2021, 2, pagg. 367 e segg.: “si tratta di un presidio fondamentale, che resta però indeterminato nella sua dimensione attuativa. (…) Se dev’essere un funzionario pubblico a controllare l’IA occorre riflettere sul tipo di competenze matematiche ed informatiche che dovrebbero sussistere in capo al medesimo per evitare la cattura dell’umano da parte della macchina (c.d. effetto aggancio). Il termine human in the loop, o human on the loop, identifica lo standard in base al quale l’applicazione dei sistemi autonomi in contesti critici deve avvenire sempre sotto la supervisione di un operatore umano. Per Fasan M. I principi costituzionali nella disciplina dell’Intelligenza artificiale. Nuove prospettive interpretative, in DPCE on-line, 1/2022, pag.181: ‘esso diventa espressione di un nuovo principio di rilevanza costituzionale, il principio di non esclusività, in base al quale i sistemi di AI non possono essere l’unico elemento decisivo nei processi decisionali riguardanti i diritti e le libertà fondamentali della persona’.

[76] Cfr. Falletta P.S.L., op. cit., pag. 136. Si parla, in tal caso di ‘anchoring effect’ o di ‘automation bias’, per indicare la tendenza a non discostarsi dalle risultanze istruttorie prodotte dal sistema di IA.

[77] Cfr. Rangone N., op. cit., che evidenzia come sia anche “possibile che si manifesti un atteggiamento opposto di rifiuto, che può derivare da sfiducia nella tecnica (algorithm aversion) o da limitate competenze tecnologiche, oppure da un vero e proprio bias di avversione all’algoritmo”.

[78] Cfr. Falletta P.S.L., op. cit, pag. 136.

[79] Cfr. Simoncini M. L’agire provvedimentale dell’amministrazione e le sfide dell’innovazione tecnologica, in Rivista trimestrale di Diritto pubblico, 2020, p. 539. Per una distinzione efficace tra versioni ‘forti’ e versioni ‘deboli’ del principio di precauzione si veda Zuddas P. Pregiudizi digitali e principio di precauzione, in Consulta on line, 2020, pagg. 419 e segg.

[80] Governo Italiano Programma Strategico Intelligenza Artificiale 2022-2024 approvato il 24.11.2021, a cura del Ministero dell’Università e della Ricerca, del Ministero dello Sviluppo Economico e del Ministro per l’Innovazione tecnologica e la Transizione Digitale.

[81] Valero Torrijos J., El régimen jurídico de la e-Administración: el uso de medios informáticos y telemáticos en el procedimiento administrativo, 2007, pag. 73.

[82] Si fa riferimento al Regolamento europeo sulla protezione dei dati personali (GDPR 679/2016, in particolare artt. 13, 14, 15 e 22) che riprende quanto previsto dalla Direttiva europea n.95/46/CE (artt. 12.a e 15.1.). Cfr. Rodotà S., op. cit. pag. 330.

[83] Marongiu D., op. cit.

[84] Commissione Europea Proposta di Regolamento Europeo che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione COM(2021)206.

[85] Per Simoncini A., Cremona E. La AI tra pubblico e privato, in DPCE on-line, 1/2022, pag. 267, però: ‘è ancora tutto da vedere se la Proposta di regolazione sull’intelligenza artificiale, quand’anche fosse varata negli innovativi termini in cui è stata presentata, riuscirà effettivamente a mettere le briglie al cavallo in corsa’.

[86] Per converso, non ricadrebbero tra i processi ad alto rischio quelli destinati ad attività amministrative puramente accessorie, quali l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o l’assegnazione delle risorse.

[87] Cfr. Costantino F., op. cit.

[88] Parona L. Poteri tecnico-discrezionali e machine learning: verso nuovi paradigmi dell’azione amministrativa in Pajno A., Donati F., Perrucci A. (a cura di) Intelligenza artificiale e diritto: una rivoluzione? op. cit., pag.144.

[89] Tale questione si fa risalire al lavoro pionieristico di Wiener N., Some moral and technical consequences of automation, in Science, vol. 131 n. 3410, 1960, pagg. 1355-8.

[90] L’IA ‘affidabile’ è un concetto introdotto dallo studioso cinese He Jifeng in occasione della Conferenza scientifica di Xianshan del 2017. Il concetto di ‘affidabilità’ legato all’IA permetterebbe, secondo questi studi, di far garantire già ad una IA ‘eticamente responsabile’ il trattamento e la tutela di alcuni diritti fondamentali dei cittadini/utenti (privacy, trasparenza, etc.) senza compromettere la circolazione dei dati necessari ad altre IA per autoapprendere. Si veda: He J. Produzione intelligente e intelligenza artificiale sicura ed affidabile, in Information Security and Communications privacy, 12, 2020, pag.2. Tale concetto ha ispirato il Libro bianco per un’IA affidabile (可信人工智能白皮书), pubblicato nel luglio 2021 dalla China Academy of Information and Communication Technology (CAICT 中国信息通信研究院; 中国信通院) (trad. inglese: White Paper on Trustworthy Artificial Intelligence, commentato in Cardillo I. Disciplina dell’intelligenza artificiale e intelligentizzazione della giustizia in Cina, in BioLaw Journal – Rivista di Bio Diritto, n. 3/2022, pag. 139 e segg.). 

[91] Nowotny H., op. cit. pag. 140, cita i casi di Google (che nel marzo 2019 ha formato un Consiglio Etico, più avanti sciolto tra le polemiche per possibile conflitto di interessi) e Facebook (che ha investito 7,5 ml di dollari in un Centro per l’etica e l’intelligenza artificiale al Politecnico di Monaco).

[92] Cfr. Santosuosso A., Tomasi M., op. cit., pag. 313, secondo cui ‘la direzione di uno studio di questo tipo è orientata verso la costruzione di una fiducia nei sistemi autonomi sia da parte della collettività sia del singolo cittadino, affinché le riserve all’utilizzo di IA nel corso delle varie attività quotidiane non siano soltanto accantonate, ma vadano a cadere per mancanza di fondamento”.

[93] 15h Berlin Debate on Science and Science Policy Funding a revolution. How artificial intelligence might change the research system as we know it. Summary, 7/11/2020. https://www.bosch-stiftung.de/en/project/berlin-science-debate/2020. Sul punto cfr. Macchia M. Mascolo A. Intelligenza artificiale e sfera pubblica: lo stato dell’arte, in Giornale di Diritto Amministrativo, 2022, 4, p. 556: “Benché tali documenti abbiano il merito di fornire spunti per orientare il dibattito e - almeno potenzialmente - le scelte di policy, essi non sono in grado di assicurare quella vera e propria governance che il settore richiede”.

[94] Cfr. Carullo G., op. cit.

[95] Carullo G., op. cit. In quest’ottica anche Falletta P.S.L., op. cit., pag.127, secondo cui “è destinata a risultare inadeguata la previsione del comma 4 dell’art. 22 dove si esclude ancora l’accessibilità delle informazioni in possesso di un PA che non abbiano la forma del documento amministrativo”.

[96] Cfr. Rangone N., op. cit. Interessante al riguardo il registro delle applicazioni di IA della città di Helsinki, che spicca per chiarezza e facilità di consultazione da parte di chiunque https://ai.hel.fi/en/ai-register/ (citato da Chiti E., Marchetti B., Rangone N., L’impiego di sistemi di intelligenza artificiale nelle pubbliche amministrazioni italiane: prove generali, in BioLaw Journal Rivista di BioDiritto, n.2/2022).

[97] Carullo G., op. cit.

[98] Cfr. Torchia L., op. cit., pag. 158.

[99] Una panoramica approfondita di alcune di queste applicazioni pratiche è contenuta in Chiti E., Marchetti B., Rangone N.  Smart cities e Amministrazioni centrali di fronte all’Intelligenza artificiale: esperienze a confronto, in BioLaw Journal Rivista di BioDiritto, n. 1/2022, p.251 e segg.

[100] Misuraca G., Van Noordt C., AI Watch - Artificial Intelligence in public services, EUR 30255 EN, Ufficio delle pubblicazioni dell'Unione europea, Lussemburgo, 2020.

[101] Rapporto 3/2022 Smart cities ed Intelligenza artificiale, in Bio&Law Journal, rivista di BioDiritto, n.1/2022.

[102] Riferita da Franca S. Il trattamento dei dati nelle sperimentazioni di intelligenza artificiale riguardanti le pubbliche amministrazioni in Pajno A., Donati F., Perrucci A. (a cura di) Intelligenza artificiale e diritto: una rivoluzione? op. cit., pag.155. Si veda anche Antulov Fantulin N., Lagravinese R., Resce G. Predicting bankruptcy of local government: a machine learning approach, in Journal of economic behavior and organization, 183, 2021, pagg. 681-699.

[103] Analoga sperimentazione è stata effettuata per predire la diffusione della corruzione nei Comuni italiani: De Blasio G., D’Ignazio A., Letta M. Gotham city. Predicting ‘corrupted’ municipalities with machine learning, in Technological Forecasting & Social Change, 184, 11/2022.

[104] Consiglio di Stato Relazione di accompagnamento alla bozza di Codice dei Contratti pubblici (7.12.2022), pag. 49, in cui si legge: “non si può escludere che, a breve, la disponibilità di grandi quantità di dati possa consentire l’addestramento di algoritmi di apprendimento da applicare alle procedure di gara più complesse; da qui l’utilità dell’inserimento di una disciplina che richiami i principi destinati a governare tale utilizzo, anche alla luce dei principi affermati sia in ambito europeo che dalla giurisprudenza amministrativa”.

[105] Rangone N. Intelligenza artificiale e Pubbliche Amministrazioni: affrontare i numerosi rischi per trarne tutti i vantaggi, in BioLaw Journal – Rivista di Bio Diritto n.2/2022, pag. 473: “L’intelligenza artificiale costituisce dunque uno strumento per l’effettività dell’organizzazione e dell’azione amministrativa, in ultima analisi di un diritto amministrativo che sia osservato, attuato e foriero di risultati coerenti con gli obiettivi per cui è stato previsto”.

[106] Una spinta decisiva, anche per le PA, sarà rappresentata dall’avvio (l’inaugurazione è avvenuta il 24.11.2022) del supercalcolatore “Leonardo”, presso il Tecnopolo di Bologna, il quarto supercalcolatore più potente al mondo, su cui per approfondimenti si rinvia a Ubertini F. Il Supercalcolatore di Bologna. Una risorsa per l’Italia, in Limes rivista italiana di geopolitica, L’intelligenza non è artificiale, 12/2022, pag. 153 e segg. In particolare, importanti ricadute anche per le PA si avranno dalla contemporanea nascita all’interno del Tecnopolo dell’ICSC (Centro nazionale di ricerca in High-performance computing, Big data e Quantum compunting, finanziato con fondi del PNRR per circa 350 milioni di euro).

[107] Cfr. Pesce G. Pubblica Amministrazione e tecnologie emergenti – Diritto amministrativo e Intelligenza Artificiale: i problemi, in Giurisprudenza italiana, 2022, 6, p. 1507 segg.

[108] Masucci A. Procedimento amministrativo e nuove tecnologie, op. cit., pag. 81.

[109] Cfr. Numerico T. Dobbiamo ripensare l’intelligenza artificiale, in Limes - rivista italiana di geopolitica, L’intelligenza non è artificiale, op. cit., pag. 79.

[110] Lo Storto G. Umano e digitale non si escludono, in Corriere della Sera, 26.05.2022: “anziché un presunto neo-antropocentrismo, occorrerà una ‘larga’ formazione multidisciplinare e poliedrica (lifelarge learning) che abbia la forza di non creare gerarchie a priori”. E ancora: “un nuovo umanesimo integrale non dovrebbe rinunciare al compito di cercare il significato profondo delle macchine e del loro impatto, che forse ci siamo abituati con troppa rassegnazione ad accettare senza spirito critico’.

[111] Secondo Simoncini A. La dimensione costituzionale dell’intelligenza artificiale, in Cerrina Feroni G., Fontana C., Raffiotta E.C. (a cura di), op.cit., pag. 154, si tratta di “un’esplorazione da avviare, nella quale il costituzionalismo riscopre la propria missione, trasversale al diritto pubblico e al diritto privato, che è quella di ‘catturare nuovamente quel potere che molti secoli addietro aveva saputo subordinare al diritto e funzionalizzare ai diritti’, rifuggendo ‘i rischi di un costituzionalismo irenico che si limiti a celebrare i trionfi dei diritti fondamentali grazie alla giurisdizione (anzi: alle giurisdizioni)’ e tornando ‘ad un costituzionalismo polemico che si misuri con il potere’, pubblico o privato che sia” (il riferimento è alla distinzione fatta da Luciani M., Costituzionalismo irenico e costituzionalismo polemico, in Giurisprudenza costituzionale, IV, 2006, 1668).

[112] Cfr. Rodotà S., op. cit., pag. 352-53.

[113] Lo Storto G., op. cit.

[114] Numerico T., op. cit., pag.80.