ISSN 2039 - 6937  Registrata presso il Tribunale di Catania
Anno XVI - n. 07 - Luglio 2024

  Studi



Metaverso, fiscalità e intelligenza artificiale: prime considerazioni alla luce del recente disegno di legge in materia.

Di Antonio Felice Uricchio e Francesco Mazzotta
   Consulta il PDF   PDF-1   

Metaverso, fiscalità e intelligenza artificiale: prime considerazioni alla luce del recente disegno di legge in materia

 

Di Antonio Felice Uricchio, ordinario di diritto tributario Università di Bari e Francesco Mazzotta, colonnello della Guardia di Finanza attualmente alla Presidenza del Consiglio

 

 

Abstract  il lavoro  muove dalla definizione di metaverso e intelligenza artificiale per esplorare le prospettive di regolazione e di tassazione. Particolare attenzione viene poi riservato al recente disegno di legge in materia di intelligenza artificiale e alla delega conferita al Governo di adottare disposizioni attuative coerente alla strategia nazionale da elaborare coerentemente con quella europea

 

The paper starts from the definition of metaverse and artificial intelligence to explore the perspectives of regulation and taxation. Particular attention is then given to the recent draft law on artificial intelligence and the delegation given to the Government to adopt implementing provisions consistent with the national strategy to be developed in line with the European strategy.

 

Sommario: - 1. Il metaverso: nozione e ambiti di applicazione. – 2. I possibili rischi e la necessità di predisporre adeguati strumenti di tutela. – 3. Metaverso e intelligenza artificiale: le nuove frontiere della fiscalità. – 4. Il disegno di legge sull’intelligenza artificiale. – 5. Le norme di principio sull’intelligenza artificiale. – 6. Le disposizioni di settore. – 7. La strategia nazionale, le autorità nazionali e le azioni di promozione. – 8. Le disposizioni a tutela degli utenti e in materia di diritto d’autore. – 9. Le disposizioni penali.

 

 

  1. Come è noto, l’espressione metaverso”  è stata coniata  dalla  letteratura  fantascientifica per designare  una realtà virtuale sviluppata in più dimensioni e  condivisa tramite la rete internet.  Pur trattandosi di un’entità priva di consistenza fisica, il “metaverso” è   una sorta di universo  parallelo, rappresentando più dimensioni.  Peraltro,  la  stessa  etimologia  del  termine  è  di  per   sé  emblematica,  trattandosi  di  una  locuzione  composta  da  “meta”   più  “verso”:  “meta”,  ossia  all’interno,  e  “verso”,  abbreviazione  di  universo.  Allo stato attuale, le frontiere di sviluppo del “metaverso” sono  tutte da esplorare, trattandosi di un’entità nuova dai confini indefiniti.

Dal punto di vista giuridico, il “metaverso” designa un insieme di soggetti che, utilizzando le tecnologie informatiche, svolgono  atti  e  operazioni  di  una  certa  rilevanza:  si  tratta  di  un  universo  parallelo in cui, attraverso una realtà aumentata, vengono emulati  meccanismi del mondo reale, dando forma ad esistenze alternative  rispetto alla dimensione fisica e reale.

È,  dunque  un  regno  intangibile  in  grado  di  offrire  una  sorta   di extraterritorialità, in cui vigono regole peculiari, peraltro ancora  tutte da scrivere. A ben guardare, per una corretta disamina del fenomeno, è necessario distinguere la realtà virtuale da quella aumentata: la prima consente all’utente di immergersi completamente in un mondo digitale; la seconda, tipica del “metaverso”, sovrappone agli elementi  della dimensione digitale le peculiarità del mondo fisico, in modo  da far emergere una singola realtà fenomenica.

Alla luce delle esperienze più recenti e soprattutto dalla continua espansione del fenomeno favorita anche dall’afflusso di ingenti investimenti,  è facile prevedere che molte attività economiche di natura digitale  in  un  prossimo  futuro possano  trovare nel  “metaverso”  un  luogo  naturale di espressione e realizzazione, con conseguenti criticità in  vari ambiti del sapere giuridico : in primo luogo, in materia di raccolta  e  trattamento  dei  dati  personali,  in  quanto  tutti  i  dati  inerenti  una  qualunque  attività  esercitata  nel  “metaverso”  transiteranno  inevitabilmente  attraverso  i  server  di  piattaforme informatiche,  con  conseguente  difficoltà,  da  parte  degli  utenti,   di verificare l’effettivo rispetto della normativa vigente in materia;  in secondo luogo, in ordine ai vari contratti di servizio, spesso caratterizzati da una formulazione criptica, da clausole oscure, da obbligazioni  non  chiaramente  definite,  la  cui  tenuta  giuridica  appare  di estrema discutibilità; non meno irrilevante è il tema delle norme antiriciclaggio,  soprattutto  in  presenza  dell’utilizzo  di  criptovalute  come mezzo di pagamento e dello svolgimento di servizi muniti di una  qualche  natura  finanziaria,  in  cui  l’accertamento  dell’identità  effettiva  diventa  cruciale  ai  fini  della  corretta  imputazione  di  rapporti ed effetti giuridici, anche in considerazione della qualificazione che è necessario possedere per lo svolgimento di una determinata attività; infine, le implicazioni in materia tributaria, in ragione dei molteplici  utilizzi  del  “metaverso”,  con  conseguente  creazione  di  valore, significativo e non meramente marginale, idoneo ad essere assoggettato ad imposizione. Da qui l’esigenza di una regolamentazione che possano assicurare piena tutela ai diritti individuali senza sacrificare evoluzione e sviluppo tecnologico o porre barriere di carattere giuridico . Al riguardo  va avvertito che  per gli utenti accedere al “metaverso” è piuttosto semplice in quanto è sufficiente registrarsi su un’apposita piattaforma informatica ed essere muniti di un dispositivo  o  di  un  visore  che  consente  di  fruire  dei  servizi  offerti  dalla realtà virtuale.   Evidenti sono le  implicazioni  sul  piano giuridico ed economico sia con riguardo  all’individuazione  della  legge applicabile,  del  giudice  dotato  di  giurisdizione  al  quale  potersi  rivolgere  per  reclamare  i  propri  diritti  e, sul piano tributario,  delle  manifestazioni  di  ricchezza da assoggettare ad imposizione[1]) accentuate dalle attenzioni che i principali colossi della rete (Facebook, Microsoft, Apple) han    

Molteplici  possono essere gli utilizzi  del  “metaverso”,  con  conseguente  creazione  di  valore, significativo e non meramente marginale, idoneo ad essere assoggettato ad imposizione. In  questa  prospettiva,  il  “metaverso”  assurge  a  nuova  modalità di vivere la rete: un luogo virtuale nel quale poter svolgere una pluralità di attività, anche di natura economica (un esempio è offerto  dalla  “cryptoarte” ,  vale  a  dire  opere  d’arte  diffuse  nella  realtà  e rese uniche tramite registrazione sulla blockchain   possono  costituire  oggetto  di  cessione  ricorrendo  al  sistema  degli  “NFT”, acronimo di   Non-Fungible Token  94 , con cui viene designato il certificato di proprietà che tramite un link  rimanda ad un file digitale, contenente l’opera d’arte virtuale insieme al certificato che ne attesta la proprietà esclusiva), la cui moneta di scambio è la criptovaluta.

Un ulteriore campo di applicazione del “metaverso”, potrebbe essere quello relativo alle unità che lo compongono, con evidenti riflessi anche in ambito tributario, trattandosi  di entità che, seppur virtuali ed intangibili, appaiono suscettibili di valutazione economica. La mappa del “metaverso” è divisa in una griglia: ogni cella di  questa  griglia  è  da  considerare  come  un  lotto  di  spazio  (virtuale)  chiamato   parcel , il cui valore cambia in base alla posizione geografica, al prestigio del luogo e alla grandezza dello spazio a disposizione; l’insieme di una pluralità di lotti si chiama          estate . In futuro, al fine di assoggettare ad imposizione dette entità, si potrebbe pensare ad un inventario, predisposto adeguando gli attuali modelli catastali.

La rete di miliardi di computer,  di server e  di altri dispositivi elettronici non solo consente ambienti virtuali, in grado di sperimentare  nuove dimensioni come  la realtà aumentata[2], offrendo infinità di dati da governare e gestire oltre che strumenti di comunicazione, esperienze sociali, collaborazioni aziendali e finanziarie. Il metaverso stimola la creazione di nuove economie e già si assiste ai primi test in cui sia i marchi nativi digitali sia quelli tradizionali interagiscono con i clienti in modalità diverse, utilizzando la VR, la AR oppure nuove risorse digitali.

In molti casi , l’accesso avviene attraverso ambienti di gioco che  hanno anche il vantaggio aggiuntivo di essere un eccellente scenario per lo sviluppo e per i test di nuove tecnologie che si basano su AR e VR, per la moderazione dei contenuti.

Il settore fashion ha fatto un balzo in avanti negli ultimi due anni: non sono da meno le aziende nel settore immobiliare che possono utilizzare la VR per mostrare alle persone una casa prima di acquistarla. Negli ultimi anni, il mercato dell’arte ha iniziato ad entrare nel metaverso, offrendo agli artisti e ai collezionisti la possibilità di acquistare e vendere opere d’arte digitali[3].

 

  1. Il ricorso al metaverso attraverso tecnologie quali AI pone l’utilizzatore dinanzi al verificarsi di probabili rischi che possiamo così riassumere[4].In primo luogo, la falsificazione di identità, essendo l'identità virtuale alla base del metaverso, ma per il momento non è chiaro come lo spoofing (la falsificazione dell’identità) possa essere prevenuto. Né si sa granché sui crimini che possono essere commessi, come non esiste un quadro giuridico che possa affrontare gli aspetti legati al suo funzionamento.

In secondo luogo, le politiche di sicurezza, dovendo le aziende tecnologiche collaborare con le agenzie governative e le forze dell’ordine per contribuire a creare politiche di sicurezza. Mancano linee guida per presentare reclami alle forze dell’ordine in caso di molestie agli utenti. Se una persona vuole presentare una segnalazione ora, spesso è difficile farlo, perché, per motivi di privacy, le piattaforme spesso non registrano cosa sta succedendo. Questo cambiamento farebbe una grande differenza nella capacità di disciplinare i recidivi, che in questo momento possono farla franca con abusi e molestie su più piattaforme, che non comunicano tra loro sugli utenti problematici.

Vi è poi il rischio connesso all’utilizzo di criptovalute[5], essendo nel metaverso molto importante proteggere la proprietà intellettuale. già difficilmente tutelabile nel mondo reale. In questa visuale, sarà sempre più importante e fondamentale esigere che la sicurezza sia integrata sin dal primo giorno di sviluppo del nuovo ambiente virtuale. Infatti, l’utilizzo delle criptovalute nelle transazioni tra componenti del metaverso rende difficile identificare chi è responsabile della prevenzione di frodi e attacchi informatici.

Gli attacchi informatici costituiscono un ulteriore rischio: anzi, con l’aumento dell’interesse dei consumatori per il metaverso, anche gli attacchi informatici si evolveranno in termini di furto di dati e identità, ransomware e campagne di disinformazione potenzialmente più mirate e distruttive.

I nuovi problemi di privacy e sicurezza sono un altro argomento critico, poiché il metaverso coinvolge risorse che non esistono nel mondo reale e dovrebbero raccogliere un’enorme quantità di diversi tipi di dati, inclusi percorsi biometrici ed economici, che possono mettere a rischio un utente.

Infine, la protezione e la sicurezza della proprietà intellettuale sarà fondamentale nel metaverso, soprattutto se si pensa che, ad oggi, ne risulta ancora difficile la gestione nel mondo fisico.

Ogni organizzazione ed individuo deve quindi aumentare la consapevolezza delle potenziali minacce del metaverso: la conoscenza del contesto consente di riconoscere meglio un eventuale tentativo di frode e di prendere decisioni autonome rispetto a quali aspetti del metaverso partecipare.

 

  1. Il metaverso e l’intelligenza artificiale rappresentano una nuova frontiera anche per la fiscalità[6]. Difatti, l’approccio tradizionale alla fiscalità (fondato prevalentemente su aspetti giuridici e interpretativi) è stato superato da meccanismi tecnologici che prevedono l’uso sempre maggiore di banche dati, intelligenza artificiale e machine learning (che si occupa di creare sistemi che apprendono o migliorano la performance in base ai dati che utilizzano)[7]. Gli aspetti delle nuove tecnologie, che riguardano maggiormente i procedimenti fiscali sono legati al procedimento accertativo[8]: “l’analisi del rischio” - che è uno degli elementi più significativi per l’Agenzia delle entrate e Guardia di finanza nella lotta all’evasione e all’elusione -sarà fatta mediante meccanismi di intelligenza artificiale. È necessario l’utilizzo di IA e di tecnologie avanzate anche per quanto riguarda i procedimenti di riscossione e rimborso, al fine di aiutare a ridurre il carico dell’Agenzia delle entrate riscossione.

Il particolare contributo che strumenti tecnologici più evoluti  possono offrire nella creazione del valore  appare apprezzabile da più ambiti anche nella prospettiva della tassazione e non solo in quella del controllo: quello dell’impresa o del soggetto utilizzare, quello dell’impresa produttrice e quello degli utenti che da un lato possono avvalersi dei servizi resi o delle utilità ricevute e che dall’altro concorrono a  rendere informazioni che a loro volte vengono elaborate e che diventano nuovo valore[9].  È proprio il diverso modo di creazione di valore, fondato sull’utilizzo intelligente dei dati accumulati e  a loro volta messi in ordine  da device intelligenti e quindi via via utilizzati anche in dimensioni virtuali  che consente di attribuire rilevanza a nuovi indicatori di ricchezza anche sotto il profilo della capacità contributiva. Né rispetto a eventuali modelli di prelievo possono essere considerate estranee finalità redistributive  sia  riconducibili alle modalità di impiego della spesa pubblica , sia al livello di automazione rapportato alla condizione socio economico dei fruitori  (secondo l’economista della Banca d'Inghilterra Andy Haldane l'automazione  può essere definita "un'imposta regressiva sul reddito dei non qualificati")[10].   E’ di tutta evidenza, quindi, che manifestazioni di ricchezza del tutto nuove rispetto a quelle tradizionalmente assoggettate a tassazione ed offerte dalla new economy possono essere assunte come fattispecie imponibili di nuove forme di prelievo, sia pure nel rispetto dei fondamentali principi di ragionevolezza e di giusto riparto che proprio dal principio di capacita contributiva discendono. D’altronde, come autorevolmente osservato, ogni istituto tributario, pur potendo avere vita precaria e contingente, trae speranza di sopravvivenza solo dalla propria conformità a ragionevolezza, equità distributiva[11], semplicità. Tali valori, pur componendo l’humus etologico dal quale la nostra Costituzione trae alimento, devono, infatti,  trovare concretizzazione negli istituti tributari anche se nuovi e orientati nei confronti di manifestazioni di ricchezza in precedenza non tassate.

Tra le diverse forme di prelievo che si rende possibile adottare,  si potrebbe immaginare un tributo periodico  che assuma come base imponibile  il vantaggio economico derivante dall’attività  di AI  per il tramite di robot intelligente  con riguardo ad un periodo d’imposta (annuale) . Il vantaggio economico potrebbe essere costituito dai maggiori redditi riferibili in modo specifico al robot[12] , ovvero  ai risparmi di spesa realizzati (esempio minori costi pagati per la sostituzione di lavoratori dipendenti)[13]  ovvero alle utilità ricevute, tassate secondo il loro valore normale.  Ovviamente, la tassazione potrebbe anche avere luogo su base presuntiva, secondo criteri di ragionevolezza, stimando i vantaggi economici  rivenienti dall’utilizzo del robot . Va tuttavia avvertito il rischio che dovrebbero essere adottati correttivi per impedire la doppia imposizione dei profitti dell’impresa e dei vantaggi economici (profitti o minori costi) i prodotti da robot  impiegati all’interno di impresa

Più semplice, almeno in una fase iniziale, potrebbe essere introdotta un’imposta di carattere patrimoniale  sui robot intelligenti, differenziata a seconda delle capacità di accumulazioni di dati e di conoscenza . Tale tributo ,  insistendo su un presupposto distinto dalle imposte sul reddito, non darebbe luogo ad alcun problema di doppie imposizione . Esso sarebbe facilmente accertabile, essendo tracciabile e riconoscibile la presenza del robot intelligente. La sua adozione, di carattere sperimentale, potrebbe consentire di contrastare, almeno in una prima fase, gli effetti distorsivi  che la diffusione dei robot intelligenti potrebbe provocare sul mercato del lavoro , oltre che consentirebbe  di disporre di maggiore gettito, senza scoraggiare lo sviluppo e  l’innovazione..

 

Più agevole rispetto all’introduzione di nuovi strumenti di prelievo è invece l’idea di utilizzare in modo massiccio le banche dati ,  leggendole e collegandole in modo intelligente, e semplificare il sistema tributario attraverso lo scambio di informazioni. Non va poi dimenticato l’utilizzo delle intelligenze artificiale nelle procedure di accertamento tributario,  già previsto e in parte realizzato in Francia e  oggetto di studio  da parte della nostra Agenzia delle entrate che peraltro già  adopera strumenti di raccolta e di interscambio delle informazioni anche di big data (cosiddetti Anagrafi dei rapporti e Sistema di interscambio Dati  -  SID).    Particolarmente sofisticato è  quello adoperato dall'Agenzia delle entrate per acquisire  le informazioni relative ai saldi e alle movimentazioni dei conti correnti oltre che di altre tipologie di rapporti, da parte degli intermediari finanziari.  Le caratteristiche tecnologiche del sistema consentiranno la  progressiva estensione ad altre tipologie di flussi che si caratterizzano, prevalentemente, per i grandi volumi di dati scambiati .

Fondamentale in questo contesto è  il ruolo della  SOGEI incaricata di gestire  e organizzare i sistemi informativi per  conto del Ministero dell'Economia e delle Finanze (e anche della  Corte dei Conti)  anche attraverso banche dati tematiche da utilizzare per le attività di "intelligence", di verifica fiscale e per le decisioni di politica economica. In questo contesto, la  Sogei ha sviluppato metodologie di controllo per dare maggiore efficacia alle azioni di prevenzione e contrasto all'evasione e per migliorare la qualità dei controlli e delle verifiche  nella fase dell'accesso e nella ricostruzione dei redditi e  volumi d'affari, segnalando gli elementi da rilevare e la documentazione da acquisire. Gli strumenti disponibili sono tra loro integrati e rispondono al quadro normativo e organizzativo previsto per le attività di "intelligence" degli uffici dell'Amministrazione e permettono di effettuare i controlli e di fornire supporto alle fasi del contraddittorio con il contribuente e dell'accertamento fiscale. 

Da quanto osservato, appare fin troppo evidente come si aprano scenari nuovi che meritano di essere indagati senza esitazioni e timori. La sperimentazione dello strumentario fiscale unito all’inarrestabile evoluzione tecnologica  potrà  offrire quindi soluzioni che il decisore politico è chiamato a valutare e prima o poi a introdurre attraverso adeguati strumenti regolatori.  E’ perciò, cruciale individuare criteri regolatori capaci di riequilibrare il rapporto tra le opportunità che offrono le nuove tecnologie ed i rischi inevitabilmente legati al loro uso improprio, al loro sottoutilizzo o al loro impiego dannoso[14].

 

  1. In questo contesto, il recente disegno di legge sull’intelligenza artificiale, approvato dal Consiglio dei Ministri il 23 aprile 2024, ha l’obiettivo di riequilibrare il rapporto tra opportunità e rischi connessi all’uso dell’intelligenza artificiale, prevedendo norme di principio e disposizioni di settore che, da un lato, promuovano l’utilizzo delle nuove tecnologie per il miglioramento delle condizioni di vita dei cittadini e della coesione sociale e, dall’altro, forniscano soluzioni per la gestione del rischio fondate su una visione antropocentrica[15]. In quest’ottica, il disegno di legge non si sovrappone all’emanando Regolamento europeo sull’intelligenza artificiale (AI ACT, approvato lo scorso 13 marzo dal Parlamento Europeo)[16], ma ne accompagna il quadro regolatorio in quegli spazi propri del diritto interno, tenuto conto che il regolamento è impostato su un'architettura di rischi connessi all’uso della IA[17].

Lo schema di disegno di legge si compone di cinque capi contenenti venticinque articoli. La suddivisione in capi delinea la struttura del DDL che si snoda a partire da una normativa di principio (Capo I, artt. 1-6) e, a seguire, contiene le disposizioni di settore (Capo II, artt. 7-16), le disposizioni riguardanti la Strategia nazionale, le autorità nazionali e le azioni di promozione (Capo III, artt. 17 22), la tutela del diritto di autore (Capo IV, artt. 23-24), le sanzioni penali (Capo V, art. 25).

Il disegno di legge si caratterizza per la predisposizione di una cornice di principi (artt.1-6) che garantisca uno sviluppo equilibrato dell’intelligenza artificiale, in modo da sfruttarne appieno gli enormi potenziali e benefici riuscendo al tempo stesso a tutelare i diritti fondamentali e le attività nelle quali deve essere preservata la dimensione antropocentrica e la piena centralità dell’operare umano. È inoltre particolarmente rilevante il richiamo, all’art. 1, comma 2, alla necessità che le disposizioni vengano interpretate e applicate in conformità al diritto dell’Unione europea (cfr. anche l’analoga disposizione agli artt. 4 comma 2 e 10, commi 1 e 3). Vengono inoltre introdotte disposizioni di settore (artt. 7-16) in materia di giustizia, sanità, informazione, professioni intellettuali, disabilità, cybersecurity e lavoro per garantire che in tali settori l’utilizzo dell’intelligenza artificiale assicuri sempre la centralità del valore umano attraverso un corretto equilibrio tra nuove tecnologie e diritti costituzionalmente garantiti. La disciplina prevede poi le disposizioni che garantiscono una strategia complessiva: la strategia nazionale per l’intelligenza artificiale dell’intero sistema Paese nello sviluppo e adozione dei sistemi di intelligenza artificiale (art. 17); l’istituzione delle autorità nazionali per garantire l’attuazione della normativa europea sull’IA (art. 18), nonché misure di promozione, come quelle per i giovani e gli investimenti in settori strategici dell’IA (artt. 20-21). Si prevede inoltre una delega al governo per adeguare l’ordinamento nazionale al regolamento UE sull’intelligenza artificiale nelle materie di spettanza nazionale, come l’alfabetizzazione dei cittadini in materia di IA sia nei percorsi scolastici che in quelli universitari, la formazione da parte degli ordini professionali per i professionisti e gli operatori. La delega riguarda anche il riordino in materia penale per adeguare reati e sanzioni all’uso illecito dei sistemi di IA. Il provvedimento contiene poi normative più specifiche in materia di diritto d’autore. Sono infine previste disposizioni penali al fine di sanzionare le condotte criminose realizzate attraverso l’uso dell’intelligenza artificiale.

 

  1. Nel perseguire l’obiettivo di promuovere lo sviluppo e l’impiego di IA in un contesto sociale e tecnico (inclusivo, cioè, di tecnologie, capacità umane, strutture organizzative, norme tecniche e giuridiche) nel quale siano rispettati e promossi i diritti fondamentali della persona e i valori che ne qualificano le relazioni sociali, secondo il dettato Costituzionale e secondo il diritto dell’Unione europea, il disegno di legge, al Capo I (artt. 1-6), prevede norme di principio collegate alle finalità ed all’ambito di applicazione dell’intero disegno di legge e che si innestano, in modo differenziato, a seconda dei singoli settori, nelle diverse fasi del ciclo di vita dell’intelligenza artificiale, dalla ricerca fino all’adozione e al concreto utilizzo dei sistemi e dei modelli di intelligenza artificiale.

Tali norme di principio ruotano tutte sulla centralità dell’autodeterminazione umana affinché lo sviluppo e la concreta applicazione dei sistemi e dei modelli di IA avvengano nel rispetto della autonomia e del potere decisionale dell’uomo per garantire la sua super visione e, quindi, la sua valutazione per adottare scelte consapevoli su come delegare le decisioni ai sistemi di IA. Durante tutto il ciclo di vita dei sistemi di IA è l’essere umano a stabilire quali decisioni prendere e come realizzare un risultato vantaggioso per la società[18].

In particolare, l’articolo 1 (Finalità ed ambito di applicazione” ) chiarisce il duplice approccio che caratterizza il disegno di legge: da una parte, la promozione di un utilizzo corretto trasparente e responsabile dell’intelligenza artificiale, in una dimensione antropocentrica, per cogliere pienamente le enormi opportunità (art. 1, secondo capoverso); dall’altra, la necessaria vigilanza sui potenziali rischi economici e sociali e sull’impatto sui diritti fondamentali, con gli strumenti propri dell’ordinamento nazionale (art. 1, secondo capoverso).

L’art. 2 contiene poi le “Definizioni” dei termini tecnici utilizzati all’interno del provvedimento (sistemi di intelligenza artificiale, dati, modelli di intelligenza artificiale), in linea con il diritto dell’Unione europea.

L’art. 3 (Principi generali) dispone che il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale deve basarsi sul rispetto dei diritti fondamentali e delle libertà dell’ordinamento italiano ed UE oltre che ai principi quelli di trasparenza, proporzionalità, sicurezza, valorizzazione anche economica del dato, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità. Inoltre, al comma 3, si specificano i principi che caratterizzano lo sviluppo e soprattutto la concreta applicazione nel rispetto della autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della spiegabilità. Si garantisce (comma 4) che l’utilizzo dell’intelligenza artificiale non pregiudichi la vita democratica del Paese e delle istituzioni. Il comma 5 introduce la necessità del rispetto della cybersicurezza lungo tutto il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale. Il comma 6 prevede che alle persone con disabilità sia garantito il pieno accesso ai sistemi di intelligenza artificiale senza forme di discriminazione.

L’articolo 4 detta “Principi in materia di informazione e di riservatezza dei dati personali” stabilendo che l’utilizzo dei sistemi di IA nei mezzi di comunicazione avvenga senza pregiudizio ai principi di libertà e pluralismo, alla libertà di espressione e del diritto all’obiettività, completezza, imparzialità e lealtà dell'informazione.

L’articolo 5 detta “Principi in materia di sviluppo economico” e promuove l’IA nei settori produttivi da parte dello Stato e delle pubbliche autorità, per migliorare la produttività e avviare nuove attività economiche per il benessere sociale, nel rispetto del principio generale della concorrenza nel mercato, dell’utilizzo e della disponibilità di dati ad alta qualità. Si prevede, che lo Stato e le altre pubbliche autorità indirizzino le piattaforme di e-procurement delle amministrazioni pubbliche.

L’articolo 6 detta Disposizioni in materia di sicurezza e difesa nazionale. Sono escluse dall’ambito di applicazione del provvedimento le attività svolte per scopi di sicurezza nazionale, per la cybersicurezza nazionale nonché quelle svolte per scopi di difesa dalle forze armate.

 

  1. Il Capo II del disegno di legge (artt. 7-16) contiene poi disposizioni di settore riferite a vari ambiti. In particolare, l’articolo 7 (Uso dell’intelligenza artificiale in ambito sanitario e di disabilità) prevede che l’utilizzo dell’intelligenza artificiale non può in alcun modo selezionare con criteri discriminatori condizionando e restringendo l’accesso alle prestazioni sanitarie (commi 1 e 2). Prioritario è il diritto dell’interessato ad essere informato circa l’utilizzo di tali tecnologie (comma 3). Si promuove la diffusione dei sistemi di IA finalizzati all’inclusione, le condizioni di vita e l’accessibilità delle persone con disabilità (comma 4). L’utilizzo dei sistemi di IA in ambito sanitario deve lasciare impregiudicata la spettanza della decisione alla professione medica (comma 5)[19].

L’articolo 8 (Ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario) prevede che i trattamenti di dati, anche personali, eseguiti da soggetti pubblici e privati senza scopo di lucro per la ricerca e la sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale per finalità terapeutica e farmacologica, sono dichiarati di rilevante interesse pubblico (art. 32 della Costituzione articolo 9 lettera g) del Regolamento UE 679/16). Si prevede l’uso secondario dei dati personali privi di elementi identificativi diretti rimanendo fermo l'obbligo di informativa dell'interessato.

L’articolo 9 (Disposizioni in materia di fascicolo sanitario elettronico, sistemi di sorveglianza nel settore sanitario e governo della sanità digitale) prevede che tramite uno o più decreti del Ministro della salute, di concerto con l'Autorità politica delegata in materia di innovazione tecnologica e transizione digitale e con l'Autorità delegata per la sicurezza e cybersicurezza, nonché sentita la Conferenza unificata, sia istituita ad opera dell’AGENAS, una piattaforma di intelligenza artificiale per il supporto alle finalità di cura e, in particolare, per l'assistenza territoriale[20].

L’articolo 10 (Disposizioni sull’utilizzo dell’intelligenza artificiale in materia di lavoro) applica il principio antropocentrico all’utilizzo dell’IA nel mondo del lavoro, chiarendo che l’intelligenza artificiale può essere impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psico-fisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione europea. Anche per il lavoro viene ribadito il principio di equità e non discriminazione di cui all’art. 3, stabilendosi che l’utilizzo dei sistemi di IA per l’organizzazione o la gestione del rapporto di lavoro non può in nessun caso essere discriminatorio.

L’articolo 11 (Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro) istituisce presso il Ministero del Lavoro e delle Politiche Sociali un Osservatorio sull’adozione dei sistemi di IA.

Per le professioni intellettuali, l’articolo 12 (Principi in materia di professioni intellettuali) stabilisce che nelle professioni intellettuali il pensiero critico umano debba sempre risultare prevalente rispetto all’uso degli strumenti di intelligenza artificiale che può riguardare solo le attività di supporto all’attività professionale. Per assicurare il rapporto fiduciario tra professionista e cliente si è stabilito, inoltre, che le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista debbano essere comunicate al cliente con linguaggio chiaro, semplice ed esaustivo.

L’articolo 13 regola l’utilizzo dell’IA nel settore dell’attività della pubblica amministrazione (Principi in materia di pubblica amministrazione) prevedendo, la promozione dell’utilizzo dell’IA nella pubblica amministrazione per garantire il buon andamento e l’efficienza dell’attività amministrativa; dando centralità al principio dell’autodeterminazione e della responsabilità umana.

L’articolo 14 (Utilizzo dell’intelligenza artificiale nell’attività giudiziaria) prevede che nell’amministrazione della giustizia l’utilizzo dell’IA è consentito esclusivamente per finalità strumentali e di supporto, ovvero per l’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale, mentre è sempre riservata al magistrato la decisione sull’interpretazione della legge, la valutazione dei fatti e delle prove e sull’adozione di ogni provvedimento inclusa la sentenza (art. 14, c. 2). La disciplina di dettaglio sui confini tra attività strumentali è lasciata ai rispettivi ordinamenti delle magistrature (art. 14., c. 1). Considerata la peculiarità delle controversie che riguardano i sistemi di intelligenza artificiale e le competenze che riguardano gli accertamenti tecnici connessi alle controversie, l’articolo 15 (Modifiche al Codice di procedura civile) ha aggiunto tra le materie di competenza esclusiva del tribunale civile le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale.

L’articolo 16 (Utilizzo dell’intelligenza artificiale per il rafforzamento della cybersicurezza nazionale) stabilisce che l’ACN promuove e sviluppa ogni iniziativa, anche di partenariato pubblico-privato, volta a valorizzare l’intelligenza artificiale come risorsa per il rafforzamento della cybersicurezza nazionale.

 

  1. Il Capo III del disegno di legge (artt.17-22) si occupa di strategia nazionale, autorità nazionali e azioni di promozione[21].

In particolare, l’articolo 17 (Strategia nazionale per l’intelligenza artificiale) introduce la Strategia nazionale per l’intelligenza artificiale, il documento che garantisce la collaborazione tra pubblico e privato, coordinando le azioni della PA in materia e le misure e gli incentivi economici rivolti allo sviluppo imprenditoriale ed industriale. La Strategia è predisposta e aggiornata dal Dipartimento per la Trasformazione digitale della Presidenza del Consiglio, ed è approvata con cadenza almeno biennale dal Comitato interministeriale per la transizione digitale (CITD). La stessa struttura provvede al coordinamento e al monitoraggio dell’attuazione della strategia, avvalendosi dell’Agenzia per l’Italia digitale, d’intesa, per gli aspetti di competenza, con l’Agenzia nazionale per la cybersicurezza nazionale. I risultati del monitoraggio vengono trasmessi annualmente alle Camere.

L’articolo 18 (Autorità nazionali per l’intelligenza artificiale) istituisce le Autorità nazionali per l’intelligenza artificiale, disponendo l’affidamento all’Agenzia per l’Italia digitale (AgID) e all’Agenzia per la cybersicurezza nazionale (ACN) del compito di garantire l’applicazione e l’attuazione della normativa nazionale e dell’Unione europea in materia di AI come Autorità nazionali per l’intelligenza artificiale. In particolare, l’AgID è responsabile di promuovere l’innovazione e lo sviluppo dell’intelligenza artificiale e di definire le procedure e ad esercitare le funzioni e i compiti in materia di valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale (comma 1, lett. a). L’ACN, anche ai fini di assicurare la tutela per la Cybersicurezza, è responsabile per la vigilanza, incluse le attività ispettive e sanzionatorie, dei sistemi di intelligenza artificiale, e per la promozione e lo sviluppo dell’intelligenza artificiale relativamente ai profili di cybersicurezza (comma 1, lett. b). AgID e ACN, ciascuna per quanto di rispettiva competenza, assicurano l’istituzione e la gestione congiunta di spazi di sperimentazione finalizzati alla realizzazione di sistemi di intelligenza artificiale conformi alla normativa nazionale e dell’Unione europea; nella realizzazione di tali spazi normativi, viene sentito il Ministero della difesa per gli aspetti relativi ai sistemi di intelligenza artificiale impiegabili in chiave duale (comma 1, lett. c)[22].

L’articolo 19 (Applicazione sperimentale dell’intelligenza artificiale ai servizi forniti dal Ministero degli affari esteri e della cooperazione internazionale) autorizza la spesa di 300.000 euro annui per ciascuno degli anni 2025 e 2026 per la realizzazione di progetti sperimentali volti all’applicazione dell’intelligenza artificiale ai servizi forniti a cittadini e a imprese dal Ministero degli affari esteri e della cooperazione internazionale.

L’articolo 20 (Misure di sostegno ai giovani e allo sport) prevede che rientri tra i requisiti per beneficiare del regime agevolativo a favore dei lavoratori rimpatriati l’aver svolto un’attività di ricerca nell’ambito delle tecnologie di intelligenza artificiale (c. 1). La norma prevede nel piano didattico personalizzato (PDP) dell’istituzione scolastica secondaria di secondo grado adottato per le studentesse e gli studenti ad alto potenziale cognitivo possano essere inserite attività volte alla acquisizione di ulteriori competenze attraverso esperienze di apprendimento presso le istituzioni della formazione superiore (c. 2). Inoltre, si prevedono misure per il miglioramento del benessere psicofisico attraverso l'attività sportiva, anche ai fini dello sviluppo di soluzioni innovative finalizzate a una maggiore inclusione in ambito sportivo delle persone con disabilità.

L’articolo 21 (Investimenti nei settori di intelligenza artificiale, della cybersicurezza e calcolo quantistico) dispone investimenti per un ammontare complessivo di 1 miliardo di euro, nei settori dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico delle telecomunicazioni e delle tecnologie per queste abilitanti, al fine di favorire lo sviluppo, la crescita e il consolidamento delle imprese operanti in tali settori. Tali investimenti sono effettuati anche mediante l’istituzione di uno o più fondi appositamente dedicati ai settori dell’intelligenza artificiale, della cybersicurezza e del quantum computing, nonché mediante coinvestimenti di altri fondi gestiti da CDP Venture Capital Sgr, da utilizzarsi secondo le modalità di investimento definite dal Decreto del Ministero dello sviluppo economico del 27 giugno 2019.

L’art. 22 (Delega al Governo in materia di intelligenza artificiale) prevede che il Governo venga delegato ad adottare uno o più decreti legislativi per l'adeguamento della normativa nazionale al regolamento europeo sull’intelligenza artificiale prevedendo, tra l’altro, percorsi di formazione e alfabetizzazione per la corretta applicazione dei sistemi di intelligenza artificiale per gli ordini professionali, nonché all’interno dei corsi scolastici e universitari. Nell’ottica di contemperare la promozione dell’intelligenza artificiale con un elevato livello di protezione dei diritti fondamentali, il disegno di legge interviene in materia penale, con la formulazione di principi e criteri di delega per il legislatore delegato chiamato a prevedere: a) strumenti tesi ad inibire la diffusione e a rimuovere contenuti generati illecitamente anche con sistemi di intelligenza artificiale, supportati da un adeguato sistema di sanzioni; b. una o più autonome fattispecie di reato, punite a titolo di dolo o di colpa, nonché ulteriori fattispecie di reato, punite a titolo di dolo, dirette a tutelare specifici beni giuridici esposti a rischio di compromissione per effetto dell’utilizzazione di sistemi di intelligenza artificiale; c. una circostanza aggravante speciale per i delitti dolosi puniti con pena diversa dall’ergastolo nei quali l’impiego dei sistemi di intelligenza artificiale incida in termini di rilevante gravità sull’offesa; d. una revisione della normativa sostanziale e processuale vigente, anche a fini di razionalizzazione complessiva del sistema.

 

  1. Il Capo IV del disegno di legge (artt. 23-24) detta disposizioni a tutela degli utenti e in materia di diritto d’autore. In particolare, l’articolo 23 (Identificazione dei contenuti testuali, fotografici, audiovisivi e radiofonici prodotti da sistemi di intelligenza artificiale) prevede misure, nell’ambito del “Testo unico per la fornitura di servizi di media audiovisivi” (d.lgs. n. 208/2201), volte a favorire l’identificazione e il riconoscimento dei sistemi di intelligenza artificiale nella creazione di contenuti testuali, fotografici, audiovisivi e radiofonici che sia stato, completamente generato ovvero anche parzialmente, modificato o alterato dai sistemi di intelligenza artificiale, in modo tale da presentare come reali dati, fatti e informazioni che non lo sono, deve contenere un elemento o segno identificativo, anche in filigrana o marcatura incorporata con l’acronimo “IA” ovvero, nel caso audio, attraverso annunci audio ovvero con tecnologie adatte a consentire il riconoscimento. Fanno eccezione a tale marchiatura l’opera o un programma manifestamente creativo, satirico, artistico o fittizio, fatte salve le tutele per i diritti e le libertà dei terzi. Le misure attuative sono definite con specifico regolamento dell’AGCOM[23].

L’articolo 24 (Tutela del diritto d’autore delle opere generate con l’ausilio dell’intelligenza artificiale) modifica la legge sul diritto d’autore (legge n. 633/1941) per le opere create con l’ausilio di sistemi di intelligenza artificiale, assicurando la tutela prevista per le opere dell’ingegno purché costituenti risultato del lavoro intellettuale dell'autore

 

  1. Infine, il Capo V del disegno di legge (art. 25) è dedicato alle disposizioni penali, attraverso la previsione di norme precettive riguardanti: 1) una circostanza aggravante comune, 2) la previsione di una nuova fattispecie di reato, 3) l’inserimento nel codice penale e in alcune leggi di settore di circostanze speciali ad effetto speciale[24]. Con riguardo all’introduzione della circostanza aggravante comune, viene inserito all’articolo 61, primo comma, il numero 11-decies), che prevede un aumento della pena ove il fatto sia stato commesso mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato (lett. a). La nuova fattispecie incriminatrice (lett. d) ha trovato collocazione in un nuovo articolo del codice penale (612-quater), che punisce l’illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale. Il delitto è punito con la reclusione da sei mesi a tre anni ed è prevista, al secondo comma, un’ipotesi aggravata con elevazione della pena da uno a cinque anni se dal fatto deriva un danno ingiusto, ciò che completa il disegno di tutela prefigurato. Quanto alla procedibilità, il terzo comma del nuovo 612-quater prevede che si proceda d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate. In ultimo, sono state introdotte circostanze aggravanti speciali, ad effetto speciale, per alcuni reati nei quali è risultato evidente come l’utilizzo di sistemi di intelligenza artificiale abbia una straordinaria capacità di propagazione dell’offesa. In particolare, l’aggravante, integrata dall’aver commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale, è stata prevista per i seguenti reati:- art. 494 c.p., Sostituzione di persona (lett. b);- art. 501 c.p., Rialzo e ribasso fraudolento di prezzi sul pubblico mercato o nelle borse di commercio (lett. c);- art. 640 c.p. Truffa (lett. e); - art. 640-ter, Frode informatica (lett. f); - art. 648-bis, Riciclaggio (lett. g); - art. 648-ter, Impiego di denaro, beni o utilità di provenienza illecita (lett. h); - art. 648-ter.1, Autoriciclaggio (lett. i); - art. 2637 c.c., Aggiotaggio (comma 2); - art. 171, comma 1, della legge 22 aprile 1941, n. 633, Protezione del diritto d'autore e di altri diritti connessi al suo esercizio (comma 3) - art.185 del decreto legislativo 24 febbraio 1998, n. 58, Manipolazione del mercato (comma 4)[25].

 

 

[1] Cfr. F. Gallo - A.F. Uricchio (a cura di), La tassazione dell’economia digitale tra imposta sui servizi digitali, global minimum tax e nuovi modelli di prelievo, Cacucci, Bari, 2022.

[2] Cfr. A.D. Signorelli, E se il vero metaverso fosse in realtà aumentata?, in https://www.wired.it/article/metaverso-realta-aumentata/.

[3] Cfr. F. Antonacchio, Criptoarte e Non Fungible Token alla ricerca di nuove regole, in Il fisco, 2021, 21, p. 2023 ss.

[4] Cfr. L. Quarta, Metaverso e diritti, in https://cryptonomist.ch/2022/01/14/metaverso-e-diritti/.

[5] Cfr. A. Bracchi, Il trattamento fiscale delle plusvalenze derivanti dalla cessione di criptovalute, in Boll. trib., 2018, 5, p. 341-342; E. Ferrari, Bitcoin e criptovalute: la moneta virtuale tra fisco ed antiriciclaggio, in Il fisco, 2018, 9, p. 862 ss.

[6] Cfr. O. Salvini, Redditi generati nel Metaverso: ricondurre all’imposizione reale la ricchezza di origine “virtuale”, in Il fisco, 2022, 13, p. 1207.

[7] Cfr. A. Uricchio, La fiscalità dell’intelligenza artificiale tra nuovi tributi e ulteriori incentivi, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, Giuffrè, Milano 2020, p. 490 ss.; A. Fidelangeli - F. Galli, Artificial Intelligence and Tax Law: Perspectives and Challenges, in CERIDAP, n. 4/2021, p. 32 ss.

[8] Cfr. F. Paparella, L’ausilio delle tecnologie digitali nella fase di attuazione dei tributi, in Riv. dir. trib., 6, 2022, I, p. 628.

[9]La partecipazione dell’utente/consumatore, passiva o addirittura attiva, di intensità più o meno maggiore, rende il destinatario dei servizi digitali esso stesso input del processo di creazione del valore, alla stregua di un fattore produttivo.

[10] Si veda al riguardo Varoufakis, Yanis. "A Tax on Robots?". Innovation & Technology. https://www.project-syndicate.org/commentary/bill-gates-tax-on-robots-by-yanis-varoufakis-2017-02?barrier=accesspaylog  Retrieved 4 May 2019.,  che ha  proposto una variazione del reddito di base universale chiamata "dividendo di base universale" per combattere la polarizzazione del reddito conseguente alla  diffusione in modo ineguale dei robot

[11]  Per tutti si vedano le indimenticabili pagine di L.V. Berliri, La giusta imposta ,  Roma, 1945, pag. 317, ove si legge:”per valutare e raffrontare il sacrificio e l’utilità individuale e collettiva di questa o quella imposta non basterà tener conto del solo sacrificio che corrisponde per ciascun contribuente alla mancata soddisfazione dei bisogni privati causata dall’imposta. Bisognerà porre in bilancio il dolore che un’imposta sentita come ingiusta arreca a coloro che si sentono ingiustamente sacrificati e il senso del disagio che arreca a coloro stessi che si sentono ingiustamente favoriti”.

[12] X. Oberson,  Taxing Robots? , cit. , pag. 252 secondo cui “Should a tax be levied on income attributable to robots’ activities, the issue of “double economic taxation” could arise. Indeed, in most cases, robots will be owned by corporations, already subject to profit taxes, and the income, at least part of it, could be taxed twice: first at the robot level, on the imputed salary or income arising from the use of the robots, and second at the corporation level. However, even these forms of economic double taxation are not new. Potential solutions to this issue exist. First, if we compare robots with workers and allocate a theoretical salary to their work, such a salary should logically be deductible as a cost at the level of the company so that double economic taxation does not occur. Indeed, salaries paid to human workers are generally recognized as deductible business expenses and the imputed salary to robots could be treated in the same way, since intelligent robots would replace humans. The imputed salary should therefore be treated the same way as salary paid in cash to humans. Second, under the current rules, robots are regarded as depreciable assets in most countries.31 This may become even more true in the future, since the developments of technology may render existing robots rapidly obsolete.32 If the legislator chooses the solution of deducting an imputed salary at the level of the company, a proper adjustment should be introduced in order to prevent a combination of asset depreciation and an imputed salary deduction. Finally, to collect the tax on income attributable to robots’ activities (imputed salary), a mechanism of tax at source could be introduced at the level of the employer”.

[13]Joao Guerreiro, Sergio Rebelo, Pedro Teles (2017), Should Robots be Taxed?, NBER Working Paper No. 23806 Issued in September 2017, Revised in April 2018, NBER Program(s):Economic Fluctuations and Growth.

[14]  In questo senso, si veda ampiamente il libro bianco sulle intelligenze artificiali, curato dalla Task force di AGID nel 2018, nel quale viene osservato sia dalla premessa che  “l’Intelligenza Artificiale ridisegnerà le nostre vite. La nostra quotidianità di esseri umani, cittadini, lavoratori, genitori e figli, sta cambiando sotto gli occhi di tutti. Quello di cui già oggi possiamo essere certi è che tutte le nostre abitudini e consuetudini verranno ridisegnate producendo cambiamenti sociali che necessitano di una riflessione approfondita (individuale e collettiva) e in alcuni casi, forse, anche tormentata. La tecnologia, di per sé neutrale, non lo è nella sua applicazione e lo è ancora meno per chi lavorando per lo sviluppo delle società si trova spesso a decidere cosa sia giusto o sbagliato o, in un dato contesto, quale sia il bene migliore o il male minore”.  A pagina 9 viene poi evidenziato che “l’Intelligenza Artificiale, oggi, può guidare al posto nostro, prendersi cura delle persone anziane o malate, svolgere lavori pericolosi o usuranti, aiutarci a prendere decisioni ponderate, basate sulla gestione razionale di grandi moli di dati. Ci si può permettere di comunicare in lingue che non conosciamo, può seguirci nello studio e aumentare le esperienze culturali o di intrattenimento a nostra disposizione. Nella Pubblica amministrazione può essere utilizzata con profitto nel sistema sanitario, scolastico, giudiziario, nel pubblico impiego, nella sicurezza e, più in generale, nella gestione delle relazioni coi cittadini, che possono venire semplificate e rese allo stesso tempo più efficaci, veloci ed efficienti”.

[15] Cfr. A. Celotto, Come regolare gli algoritmi: il difficile bilanciamento tra scienza, etica e diritto, in Analisi giuridica dell’economia, 2019, n.1, p 47 e ss. il quale, nel passare in rassegna in vari documenti europei in materia di intelligenza artificiale  osserva come in esse “sono formulati principi generali di equità, dignità, giustizia al fine di tutelare anche rispetto alle nuove tecnologie il rispetto delle libertà e dei principali diritti individuali e collettivi. Più nello specifico, tali principi tendono a indirizzare anche in chiave etica alcuni problemi sollevati dal funzionamento dell’Intelligenza artificiale, vale a dire della qualità e della neutralità dei dati, della responsabilità di chi utilizza gli algoritmi , della trasparenza e dell’apertura di questi ultimi nonché della tutela della privacy”.

[16] Alla base delle regolamentazione europea (AI act) va certamente richiamato il libro bianco della Commissione europea  che per la prima volta si spinge sul terreno definitorio,  definendo per intelligenza artificiale “un insieme di tecnologie che combina dati, algoritmi e potenza di calcolo” .  A tale fine , viene opportunamente chiarito che “gli elementi principali da cui è composta l'IA, vale a dire i dati e gli algoritmi. L'IA può essere integrata nell'hardware. Nel caso delle tecniche di apprendimento automatico, che costituiscono un sottoinsieme dell'IA, gli algoritmi vengono addestrati per dedurre determinati modelli partendo da un set di dati al fine di stabilire le azioni necessarie al conseguimento di un determinato obiettivo. Gli algoritmi possono continuare a imparare mentre vengono utilizzati. Sebbene i prodotti basati sull'IA possano agire in modo autonomo percependo il proprio ambiente senza seguire un insieme di istruzioni predeterminate, il loro comportamento è in larga misura definito e limitato dai loro sviluppatori. Gli esseri umani determinano e programmano gli obiettivi che un sistema di IA dovrebbe raggiungere nel modo più efficace”.  Per lo stesso documento, la rilevanza plurale di tali tecnologie, consente  ai cittadini di usufruire di nuovi vantaggi, ad esempio una migliore assistenza sanitaria, di un minor numero di guasti degli elettrodomestici, di sistemi di trasporto più sicuri e più puliti e più in generale di  servizi pubblici migliori, alle  imprese  di avvalersi di nuove generazioni di  beni strumentali come di prodotti e di servizi  e alla Pubblica Amministrazione di  poter abbattere costi di fornitura di servizi (trasporti, istruzione, energia e gestione dei rifiuti), migliorando i propri conti e la qualità dei servizi offerti all’utenza. 

[17] Cfr. Relazione al DDL n. 1146 recante “Disposizioni e delega al Governo in materia di intelligenza artificiale”.

[18] Cfr. Relazione al DDL n. 1146 recante “Disposizioni e delega al Governo in materia di intelligenza artificiale”.

[19] Cfr. Relazione al DDL n. 1146 recante “Disposizioni e delega al Governo in materia di intelligenza artificiale”.

[20] Cfr. Relazione al DDL n. 1146 recante “Disposizioni e delega al Governo in materia di intelligenza artificiale”.

[21] Cfr. Relazione al DDL n. 1146 recante “Disposizioni e delega al Governo in materia di intelligenza artificiale”.

[22] Cfr. Relazione al DDL n. 1146 recante “Disposizioni e delega al Governo in materia di intelligenza artificiale”.

[23] Cfr. Relazione al DDL n. 1146 recante “Disposizioni e delega al Governo in materia di intelligenza artificiale”.

[24] Cfr. Relazione al DDL n. 1146 recante “Disposizioni e delega al Governo in materia di intelligenza artificiale”.

[25] Cfr. Relazione al DDL n. 1146 recante “Disposizioni e delega al Governo in materia di intelligenza artificiale”.