Informativa sul trattamento dei dati personali (ai sensi dell’art. 13 Regolamento UE 2016/679)
La vigente normativa in materia di trattamento dei dati personali definita in conformità alle previsioni contenute nel Regolamento UE 2016/679 del 27 aprile 2016 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati (Regolamento generale sulla protezione dei dati, di seguito “Regolamento Privacy UE”) contiene disposizioni dirette a garantire che il trattamento dei dati personali si svolga nel rispetto dei diritti e delle libertà fondamentali delle persone fisiche, con particolare riguardo al diritto alla protezione dei dati personali.
Finalità del Trattamento e base giuridica
Il trattamento dei dati personali è finalizzato a:
– fornire il servizio e/o prodotto richiesto dall’utente, per rispondere ad una richiesta dell’utente, e per assicurare e gestire la partecipazione a manifestazioni e/o promozioni a cui l’utente ha scelto di aderire (richiesta e acquisto abbonamento periodici; richiesta e acquisto libri; servizio di fatturazione; invio periodici in abbonamento postale, invio newsletter rivolte a studiosi e professionisti).
– inviare newsletter promozionale di pubblicazioni a chi ne ha fatto richiesta; ferma restando la possibilità per l’utente di opporsi all’invio di tali invii in qualsiasi momento.
– inviare all’utente informazioni promozionali riguardanti servizi e/o prodotti della Società di specifico interesse professionale ed a mandare inviti ad eventi della Società e/o di terzi; resta ferma la possibilità per l’utente di opporsi all’invio di tali comunicazioni in qualsiasi momento.
– gestire dati indispensabili per espletare l’attività della società: clienti, fornitori, dipendenti, autori. Pacini Editore srl tratta i dati personali dell’utente per adempiere a obblighi derivanti da legge, regolamenti e/o normativa comunitaria.
– gestire i siti web e le segreterie scientifiche per le pubblicazioni periodiche in ambito medico-giuridico rivolte a studiosi e professionisti;
Conservazione dei dati
Tutti i dati di cui al successivo punto 2 verranno conservati per il tempo necessario al fine di fornire servizi e comunque per il raggiungimento delle finalità per le quali i dati sono stati raccolti, e in ottemperanza a obblighi di legge. L’eventuale trattamento di dati sensibili da parte del Titolare si fonda sui presupposti di cui all’art. 9.2 lett. a) del GDPR.
Il consenso dell’utente potrà essere revocato in ogni momento senza pregiudicare la liceità dei trattamenti effettuati prima della revoca.
Tipologie di dati personali trattati
La Società può raccogliere i seguenti dati personali forniti volontariamente dall’utente:
nome e cognome dell’utente,
il suo indirizzo di domicilio o residenza,
il suo indirizzo email, il numero di telefono,
la sua data di nascita,
i dettagli dei servizi e/o prodotti acquistati.
La raccolta può avvenire quando l’utente acquista un nostro prodotto o servizio, quando l’utente contatta la Società per informazioni su servizi e/o prodotti, crea un account, partecipa ad un sondaggio/indagine. Qualora l’utente fornisse dati personali di terzi, l’utente dovrà fare quanto necessario perchè la comunicazione dei dati a Pacini Editore srl e il successivo trattamento per le finalità specificate nella presente Privacy Policy avvengano nel rispetto della normativa applicabile, (l’utente prima di dare i dati personali deve informare i terzi e deve ottenere il consenso al trattamento).
La Società può utilizzare i dati di navigazione, ovvero i dati raccolti automaticamente tramite i Siti della Società. Pacini editore srl può registrare l’indirizzo IP (indirizzo che identifica il dispositivo dell’utente su internet), che viene automaticamente riconosciuto dal nostro server, pe tali dati di navigazione sono utilizzati al solo fine di ottenere informazioni statistiche anonime sull’utilizzo del Sito .
La società utilizza i dati resi pubblici (ad esempio albi professionali) solo ed esclusivamente per informare e promuovere attività e prodotti/servizi strettamente inerenti ed attinenti alla professione degli utenti, garantendo sempre una forte affinità tra il messaggio e l’interesse dell’utente.
Trattamento dei dati
A fini di trasparenza e nel rispetto dei principi enucleati dall’art. 12 del GDPR, si ricorda che per “trattamento di dati personali” si intende qualsiasi operazione o insieme di operazioni, compiute con o senza l’ausilio di processi automatizzati e applicate a dati personali o insiemi di dati personali, come la raccolta, la registrazione, l’organizzazione, la strutturazione, la conservazione, l’adattamento o la modifica, l’estrazione, la consultazione, l’uso, la comunicazione mediante trasmissione, diffusione o qualsiasi altra forma di messa a disposizione, il raffronto o l’interconnessione, la limitazione, la cancellazione o la distruzione. Il trattamento dei dati personali potrà effettuarsi con o senza l’ausilio di mezzi elettronici o comunque automatizzati e comprenderà, nel rispetto dei limiti e delle condizioni posti dal GDPR, anche la comunicazione nei confronti dei soggetti di cui al successivo punto 7.
Modalità del trattamento dei dati: I dati personali oggetto di trattamento sono:
trattati in modo lecito e secondo correttezza da soggetti autorizzati all’assolvimento di tali compiti, soggetti identificati e resi edotti dei vincoli imposti dal GDPR;
raccolti e registrati per scopi determinati, espliciti e legittimi, e utilizzati in altre operazioni del trattamento in termini compatibili con tali scopi;
esatti e, se necessario, aggiornati;
pertinenti, completi e non eccedenti rispetto alle finalità per le quali sono stati raccolti o successivamente trattati;
conservati in una forma che consenta l’identificazione dell’interessato per un periodo di tempo non superiore a quello necessario agli scopi per i quali essi sono stati raccolti o successivamente trattati;
trattati con il supporto di mezzi cartacei, informatici o telematici e con l’impiego di misure di sicurezza atte a garantire la riservatezza del soggetto interessato cui i dati si riferiscono e ad evitare l’indebito accesso a soggetti terzi o a personale non autorizzato.
Natura del conferimento
Il conferimento di alcuni dati personali è necessario. In caso di mancato conferimento dei dati personali richiesti o in caso di opposizione al trattamento dei dati personali conferiti, potrebbe non essere possibile dar corso alla richiesta e/o alla gestione del servizio richiesto e/o alla la gestione del relativo contratto.
Comunicazione dei dati
I dati personali raccolti sono trattati dal personale incaricato che abbia necessità di averne conoscenza nell’espletamento delle proprie attività. I dati non verranno diffusi.
Diritti dell’interessato.
Ai sensi degli articoli 15-20 del GDPR l’utente potrà esercitare specifici diritti, tra cui quello di ottenere l’accesso ai dati personali in forma intelligibile, la rettifica, l’aggiornamento o la cancellazione degli stessi. L’utente avrà inoltre diritto ad ottenere dalla Società la limitazione del trattamento, potrà inoltre opporsi per motivi legittimi al trattamento dei dati. Nel caso in cui ritenga che i trattamenti che Lo riguardano violino le norme del GDPR, ha diritto a proporre reclamo all’Autorità Garante per la Protezione dei Dati Personali ai sensi dell’art. 77 del GDPR.
Titolare e Responsabile per la protezione dei dati personali (DPO)
Titolare del trattamento dei dati, ai sensi dell’art. 4.1.7 del GDPR è Pacini Editore Srl., con sede legale in 56121 Pisa, Via A Gherardesca n. 1.
Per esercitare i diritti ai sensi del GDPR di cui al punto 6 della presente informativa l’utente potrà contattare il Titolare e potrà effettuare ogni richiesta di informazione in merito all’individuazione dei Responsabili del trattamento, Incaricati del trattamento agenti per conto del Titolare al seguente indirizzo di posta elettronica: privacy@pacinieditore.it. L’elenco completo dei Responsabili e le categorie di incaricati del trattamento sono disponibili su richiesta.
Ai sensi dell’art. 13 Decreto Legislativo 196/03 (di seguito D.Lgs.), si informano gli utenti del nostro sito in materia di trattamento dei dati personali.
Quanto sotto non è valido per altri siti web eventualmente consultabili attraverso i link presenti sul nostro sito.
Il Titolare del trattamento
Il Titolare del trattamento dei dati personali, relativi a persone identificate o identificabili trattati a seguito della consultazione del nostro sito, è Pacini Editore Srl, che ha sede legale in via Gherardesca 1, 56121 Pisa.
Luogo e finalità di trattamento dei dati
I trattamenti connessi ai servizi web di questo sito hanno luogo prevalentemente presso la predetta sede della Società e sono curati solo da dipendenti e collaboratori di Pacini Editore Srl nominati incaricati del trattamento al fine di espletare i servizi richiesti (fornitura di volumi, riviste, abbonamenti, ebook, ecc.).
I dati personali forniti dagli utenti che inoltrano richieste di servizi sono utilizzati al solo fine di eseguire il servizio o la prestazione richiesta.
L’inserimento dei dati personali dell’utente all’interno di eventuali maling list, al fine di invio di messaggi promozionali occasionali o periodici, avviene soltanto dietro esplicita accettazione e autorizzazione dell’utente stesso.
Comunicazione dei dati
I dati forniti dagli utenti non saranno comunicati a soggetti terzi salvo che la comunicazione sia imposta da obblighi di legge o sia strettamente necessario per l’adempimento delle richieste e di eventuali obblighi contrattuali.
Gli incaricati del trattamento che si occupano della gestione delle richieste, potranno venire a conoscenza dei suoi dati personali esclusivamente per le finalità sopra menzionate.
Nessun dato raccolto sul sito è oggetto di diffusione.
Tipi di dati trattati
Dati forniti volontariamente dagli utenti
L’invio facoltativo, esplicito e volontario di posta elettronica agli indirizzi indicati su questo sito comporta la successiva acquisizione dell’indirizzo del mittente, necessario per rispondere alle richieste, nonché degli eventuali altri dati personali inseriti nella missiva.
Facoltatività del conferimento dei dati
Salvo quanto specificato per i dati di navigazione, l’utente è libero di fornire i dati personali per richiedere i servizi offerti dalla società. Il loro mancato conferimento può comportare l’impossibilità di ottenere il servizio richiesto.
Modalità di trattamento dei dati
I dati personali sono trattati con strumenti manuali e automatizzati, per il tempo necessario a conseguire lo scopo per il quale sono stati raccolti e, comunque per il periodo imposto da eventuali obblighi contrattuali o di legge.
I dati personali oggetto di trattamento saranno custoditi in modo da ridurre al minimo, mediante l’adozione di idonee e preventive misure di sicurezza, i rischi di distruzione o perdita, anche accidentale, dei dati stessi, di accesso non autorizzato o di trattamento non consentito o non conforme alle finalità della raccolta.
Diritti degli interessati
Ai soggetti cui si riferiscono i dati spettano i diritti previsti dall’art. 7 del D.Lgs. 196/2003 che riportiamo di seguito:
1. L’interessato ha diritto di ottenere la conferma dell’esistenza o meno di dati personali che lo riguardano, anche se non ancora registrati, e la loro comunicazione in forma intelligibile.
2. L’interessato ha diritto di ottenere informazioni:
a) sull’origine dei dati personali;
b) sulle finalità e modalità del trattamento;
c) sulla logica applicata in caso di trattamento effettuato con l’ausilio di strumenti elettronici;
d) sugli estremi identificativi del titolare, dei responsabili e del rappresentante designato ai sensi dell’articolo 5, comma 2;
e) sui soggetti o delle categorie di soggetti ai quali i dati personali possono essere comunicati o che possono venirne a conoscenza in qualità di rappresentante designato nel territorio dello Stato, di responsabili o incaricati.
3. L’interessato ha diritto di ottenere:
a) l’aggiornamento, la rettificazione ovvero, quando vi ha interesse, l’integrazione dei dati;
b) la cancellazione, la trasformazione in forma anonima o il blocco dei dati trattati in violazione di legge, compresi quelli di cui non è necessaria la conservazione in relazione agli scopi per i quali i dati sono stati raccolti o successivamente trattati;
c) l’attestazione che le operazioni di cui alle lettere a) e b) sono state portate a conoscenza, anche per quanto riguarda il loro contenuto, di coloro ai quali i dati sono stati comunicati o diffusi, eccettuato il caso in cui tale adempimento si rivela impossibile o comporta un impiego di mezzi manifestamente sproporzionato rispetto al diritto tutelato.
4. L’interessato ha diritto di opporsi, in tutto o in parte:
a) per motivi legittimi al trattamento dei dati personali che lo riguardano, ancorché pertinenti allo scopo della raccolta;
b) al trattamento di dati personali che lo riguardano a fini di invio di materiale pubblicitario o di vendita diretta o per il compimento di ricerche di mercato o di comunicazione commerciale.
Dati degli abbonati
I dati relativi agli abbonati sono trattati nel rispetto delle disposizioni contenute nel D.Lgs. del 30 giugno 2003 n. 196 e adeguamenti al Regolamento UE GDPR 2016 (General Data Protection Regulation) a mezzo di elaboratori elettronici ad opera di soggetti appositamente incaricati. I dati sono utilizzati dall’editore per la spedizione della presente pubblicazione. Ai sensi dell’articolo 7 del D.Lgs. 196/2003, in qualsiasi momento è possibile consultare, modificare o cancellare i dati o opporsi al loro utilizzo scrivendo al Titolare del Trattamento: Pacini Editore Srl – Via A. Gherardesca 1 – 56121 Pisa. Per ulteriori approfondimenti fare riferimento al sito web http://www.pacinieditore.it/privacy/
Subscriber data
Subscriber data are treated according to Italian law in DLgs, 30 June 2003, n. 196 as updated with the UE General Data Protection Regulation 2016 – by means of computers operated by specifically responsible personnel. These data are used by the Publisher to mail this publication. In accordance with Art. 7 of the above mentioned DLgs, 30 June 2003, n. 196, subscribers can, at any time, view, change or delete their personal data or withdraw their use by writing to Pacini Editore S.r.L. – Via A. Gherardesca 1, 56121 Ospedaletto (Pisa), Italy. For further information refer to the website: http://www.pacinieditore.it/privacy/
Cookie
Che cos’è un cookie e a cosa serve?
Un cookie e una piccola stringa di testo che un sito invia al browser e salva sul tuo computer quando visiti dei siti internet. I cookie sono utilizzati per far funzionare i siti web in maniera più efficiente, per migliorarne le prestazioni, ma anche per fornire informazioni ai proprietari del sito.
Che tipo di cookie utilizza il nostro sito e a quale scopo? Il nostro sito utilizza diversi tipi di cookie ognuno dei quali ha una funzione specifica, come indicato di seguito:
TIPI DI COOKIE
Cookie di navigazione
Questi cookie permettono al sito di funzionare correttamente sono usati per raccogliere informazioni su come i visitatori usano il sito. Questa informazione viene usata per compilare report e aiutarci a migliorare il sito. I cookie raccolgono informazioni in maniera anonima, incluso il numero di visitatori del sito, da dove i visitatori sono arrivati e le pagine che hanno visitato.
Cookie Analitici
Questi cookie sono utilizzati ad esempio da Google Analytics per elaborare analisi statistiche sulle modalità di navigazione degli utenti sul sito attraverso i computer o le applicazioni mobile, sul numero di pagine visitate o il numero di click effettuati su una pagina durante la navigazione di un sito.
Questi cookie sono utilizzati da società terze. L’uso di questi cookie normalmente non implica il trattamento di dati personali. I cookie di terze parti derivano da annunci di altri siti, ad esempio messaggi pubblicitari, presenti nel sito Web visualizzato. Possono essere utilizzati per registrare l’utilizzo del sito Web a scopo di marketing.
Come posso disabilitare i cookie?
La maggior parte dei browser (Internet Explorer, Firefox, etc.) sono configurati per accettare i cookie. Tuttavia, la maggior parte dei browser permette di controllare e anche disabilitare i cookie attraverso le impostazioni del browser. Ti ricordiamo però che disabilitare i cookie di navigazione o quelli funzionali può causare il malfunzionamento del sito e/o limitare il servizio offerto.
Per avere maggiori informazioni
l titolare del trattamento è Pacini Editore Srl con sede in via della Gherardesca n 1 – Pisa.
Potete scrivere al responsabile del trattamento Responsabile Privacy, al seguente indirizzo email rlenzini@pacinieditore.it per avere maggiori informazioni e per esercitare i seguenti diritti stabiliti dall’art. 7, D. lgs 196/2003: (i) diritto di ottenere la conferma dell’esistenza o meno di dati personali riguardanti l’interessato e la loro comunicazione, l’aggiornamento, la rettificazione e l’integrazione dei dati, la cancellazione, la trasformazione in forma anonima o il blocco dei dati trattati in violazione di legge; (ii) diritto di ottenere gli estremi identificativi del titolare nonché l’elenco aggiornato dei responsabili e di tutti i soggetti cui i suoi dati sono comunicati; (iii) diritto di opporsi, in tutto o in parte, per motivi legittimi, al trattamento dei dati relativi all’interessato, a fini di invio di materiale pubblicitario o di vendita diretta o per il compimento di ricerche di mercato o di comunicazioni commerciali.
Per modificare le impostazioni, segui il procedimento indicato dai vari browser che trovi alle voci “Opzioni” o “Preferenze”.
Per saperne di più riguardo ai cookie leggi la normativa.
Riflessioni sul controllo giudiziale del potere. L’amministrazione digitale. Intelligenza artificiale e controllo giudiziale
Di Fabio Santangeli -
Sommario: 1. L’amministrazione digitale – 2. Segue. Alcuni problemi alla luce degli attuali limiti della intelligenza artificiale – 3. Segue. Il procedimento amministrativo “automatizzato” e il controllo nel procedimento. La posizione del Consiglio di Stato. – 4. Concrete soluzioni per i problemi sul procedimento e la decisione “automatizzata” e sulla adozione di provvedimenti discrezionali. – 5. Il controllo giudiziale avverso il provvedimento amministrativo digitale.
1. L’amministrazione digitale
L’ambito della cognizione sui vizi sostanziali e procedimentali della P.A., nel nostro ordinamento, è in costante evoluzione, e tuttavia molti elementi possono ben definirsi con chiarezza allo stato attuale, sia per la giurisdizione di legittimità che per quella esclusiva.
Certo, non tutto è pacifico e condiviso.
Questo quadro, comunque in costante e spesso sincronica evoluzione, rischia tuttavia di essere davvero terremotato dall’irrompere in ambito pubblico dell’intelligenza artificiale.
L’utilizzo dell’intelligenza artificiale, delle nuove tecnologie informatiche nello svolgimento dell’attività amministrativa è tema di estrema attualità.
Dall’utilizzo del computer per la semplice elaborazione di atti poi stampati e sottoscritti manualmente, fino all’adozione di provvedimenti amministrativi informatici sottoscritti digitalmente insieme all’utilizzo di tecnologie di trasmissione, il passo è stato deciso.
Non si tratta, come è evidente a tutti coloro avveduti della attuale situazione, di riflessioni rivolte a un “futuro prossimo”. O, meglio, è probabile che la vera partita si giocherà sempre nell’attualità, avuto riguardo all’evoluzione della intelligenza artificiale, che promette e mantiene nuove soluzioni con una rapidità evolutiva sorprendente, sicché ogni considerazione odierna andrà rivalutata e ripensata in tempi brevi, il che si rappresenta come un ulteriore problema, perché i nostri tempi “umani” di riflessione e produzione sono già oggi “drammaticamente” più lunghi rispetto alle novità in ambito digitale.
Già adesso, l’uso dell’intelligenza artificiale pervade il mondo della amministrazione pubblica. E ci mette di fronte ad una clamorosa novità, su cui dobbiamo prendere posizione, anche sotto il profilo del controllo.
L’evoluzione informatica ci pone oggi di fronte ad una nuova sfida, “l’automazione di funzioni precedentemente affidate in via esclusiva alle abilità umane. Il fenomeno dell’informatizzazione amministrativa si manifesta secondo distinti gradi di intensità. L’automazione si definisce “completa” allorquando il computer si avvale di programmi di intelligenza artificiale per l’adozione del provvedimento finale, senza che il contributo dell’attività umana sia necessario per la formazione della volontà dell’Amministrazione. In altri casi l’intervento umano si riduce all’approvazione o alla revisione del contenuto di un atto proposto dall’elaboratore elettronico all’esito di una procedura automatizzata. L’intelligenza artificiale può inoltre avvalersi di tecniche di apprendimento automatico consistenti nell’apprendimento e nella valutazione di dati eterogenei sulla base dei quali il programma informatico formula decisioni[1].
La riflessione è, poi, ulteriormente resa affascinante dall’attuale stato della manifestazione della intelligenza artificiale. Senza la necessità di affaticarsi in una riduzione in pillole di saperi matematici (a me) lontani, è però un dato di fatto che l’attuale stato della intelligenza artificiale (grazie all’adozione di reti neurali, attraverso le mature tecnologie del deep learning, grazie al processamento di un numero incredibile di dati, all’autoallenamento dei programmi, allo loro autonoma rielaborazione ed alla capacità di affrontare ormai da soli nuove situazioni non precedentemente conosciute) in quasi tutti i campi dove si estrinseca(va) il sapere umano procede alla risoluzione di problemi ed a ricavare soluzioni che si rivelano, ad un esame empirico (laddove naturalmente questo esame sia possibile), spesso di qualità superiore a quelle che un ragionamento umano è in grado di raggiungere. Questo, però, è uno dei temi principali: la logica del computer che sta dietro le soluzioni proposte non è la logica umana, ma qualcosa di ontologicamente diverso. Possiamo dire che il computer conosce il nostro modo di ragionare, mentre noi conosciamo meno il modo di ragionare del computer.
Un esempio concreto, oggetto di verifica giurisprudenziale, è stato offerto dalla decisione del ministero dell’istruzione di affidarsi integralmente ad un algoritmo per determinare gli esiti di un concorso, la graduatoria e le località di esercizio, di personale scolastico, che ha inciso sulla vita di migliaia di insegnanti[2].
E, ad esempio, appare quasi immediata la possibilità di utilizzare esclusivamente algoritmi anche in materia di attribuzione di finanziamenti, di assegnazione di appalti, di graduazioni in generale… etc…tutte le volte in cui sia possibile e si vogliano individuare criteri chiari e non marcatamente arbitrari nella decisione amministrativa.
In queste ipotesi, deve essere chiaro; in teoria, è possibile, se si vuole, regolamentare la materia assegnando integralmente alla macchina ogni scelta. Stiamo ragionando non solo su decisioni comunque “automatiche” perché prive di alcun elemento discrezionale, ma anche di decisioni in cui permangono elementi discrezionali, le cui finalità tuttavia debbono essere chiaramente esplicitate per consentire la costruzione di programmi informatici che a queste tendano (secondo una “regola di trasparenza algoritmica che pretende l’esplicitazione del funzionamento e dei fini dell’algoritmo). Una vera e propria automazione di processi decisionali, dunque, prima affidati alle abilità umane.
La possibile adozione di programmi di intelligenza artificiale di tal fatta sembra doversi considerare con particolare attenzione, alla luce del fondamentale canone dell’art. 97 cost.[3]; ed in effetti i risparmi in termini di costi e di tempi per una amministrazione automatizzata, a parte la percezione dell’esclusione del rischio di fenomeni lato sensu corruttivi ( o di remore per la preoccupazione di responsabilità) nell’attività di decisione e di scelta, la possibilità di ridurre errori in sede istruttoria nella conoscenza e nel processamento di conoscenze, sembrano da tenere in particolare considerazione nella determinazione delle scelte da operare in materia.
2. Segue. Alcuni problemi alla luce degli attuali limiti della intelligenza artificiale
Tuttavia, l’utilizzo di una forma di intelligenza artificiale come ora delineata deve confrontarsi con alcuni problemi, di taglio generale, prima ancora di valutarli sotto il peculiare profilo del procedimento e dell’attività amministrativa, per testarne l’adottabilità.
Come ogni attività, umana e non, anche un prodotto di una intelligenza artificiale può essere difettoso.
Ed il meccanismo che conduce al prodotto, va, pertanto, attentamente controllato.
La necessità di utilizzare una enorme massa di dati perché l’intelligenza artificiale possa conseguire risultati soddisfacenti pone in alcuni casi problemi di tutela della privacy che vanno gestiti[4]. Più ancora, la soluzione dipenderà dai dati introdotti. Attraverso errori anche involontari nel fornire o no dati non corretti, il programma da risposte (output) non consone; trash in, trash out, come usa dirsi.
La selezione delle informazioni è dunque un elemento essenziale, quello che più facilmente influenza l’output.
Anche nella costruzione dell’algoritmo, poi, possono nascondersi errori o pregiudizi del programmatore che ovviamente determinano le soluzioni.
Tutte le volte, poi, che si attribuisca un peso maggiore o minore ad una classe di elementi di fatto piuttosto che ad un’altra nella elaborazione del programma, laddove i “pesi” siano determinati da una scelta a monte, allora il momento discrezionale attiene ad una attività che deve essere pienamente conosciuta e svelata (anche se umana)[5] (e può naturalmente poi essere sindacata e contestata)[6].
Più in generale, almeno fino a poco tempo fa l’applicazione della intelligenza artificiale in alcuni campi era frenata dal fenomeno della c.d. Black box, dalla opacità del meccanismo alla luce di programmi che davano l’output, senza preoccuparsi di spiegare come si fosse giunti a quella determinata soluzione. Almeno a livello teorico, tuttavia, la percezione è radicalmente mutata: “La comunità scientifica, peraltro, mostra grande attenzione al tema della spiegabilità delle I.A., percepito anche dai tecnici come essenziale, diversi progetti di ricerca affrontano il problema della progettazione di sistemi di IA secondo un paradigma di explanation by design. Un’adeguata spiegabilità, ex ante ed ex post, e garantita dalla conoscibilità, non solo dei modelli matematici e informatici e dell’implementazione tecnica, ma anche dei dati di training, di sviluppo, di testing e di contesto su cui è basata la decisione automatica. Per scenari complessi, dove si individuano più livelli di spiegabilità, si stanno studiando strumenti capaci di dare accesso a algoritmi e strutture dati in forma comprensibile e dinamica, con l’aiuto per esempio di grafi della conoscenza e moduli di question answering”[7]. E, tuttavia, si è spesso ancora lontani dal raggiungere quello che però appare un obiettivo condiviso, una decisa implementazione dei modelli comunicativi dell’informatica.
Un punto ulteriore, però, va sottolineato; il problema della trasparenza e della chiarezza esplicativa, deve fare i conti con una opacità che sembra invece intrinseca nelle attuali tecnologie dell’intelligenza informatica: per alcuni modelli decisionali fondati sul machine learning è comunque particolarmente difficile conoscere della logica che governa proprio la fase della costruzione degli outputs, perché la logica effettivamente utilizzata dal sistema “non sarebbe esaustivamente rappresentabile ex ante, attesa l’imprevedibilità degli effetti computazionali dell’apprendimento autonomo”, ma in realtà verrebbe coniata “in itinere, dalle dinamiche peculiari dell’apprendimento concretamente realizzato; non sarebbe cioè predeterminata (dall’uomo) bensì verrebbe autodefinita (dal sistema) a mano a mano che il sistema apprende; ciò che, per definizione, avviene secondo modalità che non sono preconfigurate in virtù della programmazione, non risultando incluse in modo intellegibile nei suoi codici….”[8].
E di non nascondere le complessità di un controllo efficace dei meccanismi che conducono alla decisione del caso di specie proprio nelle applicazioni più complesse e innovative dell’intelligenza artificiale, perché più le decisioni si distaccano da assunti precedenti o affrontano territori vergini, più complesse sono da decidere ed i meccanismi che conducono alla decisione non sono per forza gli stessi della logica umana. Sembra, paradossalmente, che migliori sono le prestazioni del sistema, più difficile è la spiegazione.
Una ulteriore riflessione, infine, va dedicata proprio alle prestazioni finali; rimane, infatti, la necessità laddove possibile, di verificare empiricamente se la soluzione adottata dall’automazione della decisione conduca a risultati accettabili; il criterio empirico rimane, a mio avviso, una dimensione di controllo di particolare efficacia.
3. Segue. L’I:A: nel campo del diritto. Il procedimento amministrativo “automatizzato” e il controllo nel procedimento. La posizione del Consiglio di Stato.
Si tratta, poi, di comprendere, chi e come possa o debba controllare i dati e gli algoritmi utilizzati dal robot. Se il controllo debba essere anche preventivo, se riservato ad associazioni civili o a portatori di interessi[9] La questione riveste termini generali, ed assume una importanza fondamentale quando si voglia fare dei programmi un utilizzo pubblico o comunque rivolto a terzi, ed ancor più quando l’utilizzo sia adottato da un’autorità pubblica[10].
Ciò può legittimamente condurre ad una riflessione di fondo, e cioè se sia o no giuridicamente e socialmente accettabile riconoscere esiti fondati su decisioni che non sono irrazionali, ma comunque dovremmo percepire così se non possiamo controllarle; il compito della XAI, è certo assai arduo.
Ogni campo dello scibile umano investito da soluzioni algoritmiche è chiamato a rispondere a questi interrogativi, e le risposte ben potranno non essere univoche[11].
E, quanto al campo del diritto.
A livello Europeo, peraltro, la riflessione limitatamente al campo del diritto va probabilmente diversificata tra la funzione giurisdizionale e le altre funzioni. Laddove la “riserva di umanità”, la visione antropocentrica della fase giurisdizionale sono divenute un principio sia immanente che espresso, ricavabile già dall’art. 6 della Convenzione dei diritti dell’Uomo, e da ultimo espressi nel Regolamento europeo in tema di intelligenza artificiale del luglio 2024[12], che qualifica i sistemi di IA: in materia come sistemi “ad alto rischio” di cui all’art. 6 par. 2 del Regolamento, che pretende la facoltatività dell’impiego della IA e comunque l’effettiva e totale sorveglianza umana, cui riservare la decisione finale giurisdizionale (provata o pubblica), talché un processo diversamente costruito sarebbe afflitto da vizio per contrasto con il regolamento UE. il pieno controllo dell’Uomo.
In questo senso, il Regolamento Europeo in oggetto diversifica la funzione giurisdizionale dalla funzione amministrativa. Se pure rimane ferma la visione antropocentrica evidente nella ispirazione e nelle disposizioni del Regolamento anche sulle altre attività, che non possono che incidere anche in campo amministrativo, e i margini ulteriori che al funzionario possono pur sempre essere ulteriormente riconosciuti dalle normative legislative e giurisprudenziali degli stati nazionali.
Per quanto riguarda il campo del diritto, quanto al problema della “opacità”, su un piano giuridico, si avverte spesso dell’esistenza del diritto a ottenere una “spiegazione significativa” della logica concretamente utilizzata nel processo decisionale automatizzato, e che le conseguenze di una irrealizzabilità pratica di questo diritto comporti il divieto di sottoporre la persona a tale processo decisionale[13].
La riflessione deve farsi ancora più specifica se si guarda alla questione dal punto di vista del diritto amministrativo.
Una attenta giurisprudenza di merito ha ritenuto, ad esempio, che le procedure informatiche, “finanche ove pervengano al loro maggior grado di precisione e addirittura alla perfezione, non possono mai soppiantare, sostituendola davvero appieno, l’attività cognitiva, acquisitiva e di giudizio che solo un’istruttoria affidata ad un funzionario persona fisica è in grado di svolgere e che pertanto, al fine di assicurare l’osservanza degli istituti di partecipazione, di interlocuzione procedimentale, di acquisizione degli apporti collaborativi del privato e degli interessi coinvolti nel procedimento, deve seguitare ad essere il dominus del procedimento stesso, all’uopo dominando le stesse procedure informatiche predisposte in funzione servente e alle quali va dunque riservato tutt’oggi un ruolo strumentale e meramente ausiliario in seno al procedimento amministrativo e giammai dominante o surrogatorio dell’attività dell’uomo”. Secondo il collegio osterebbe, infatti, alla “dismissione delle redini della funzione istruttoria e di abdicazione a quella provvedimentale, il presidio costituito dal baluardo dei valori costituzionali scolpiti negli artt. 3, 24, 97 della Costituzione oltre che all’art. 6 della Convenzione europea dei diritti dell’uomo”.
Una indicazione decisa, che, tuttavia, ci allontanerebbe, forse, dalla evoluzione europea in tema[14].
Superando dunque una impostazione di parte della giurisprudenza di merito tesa a negare l’uso dell’algoritmo nello svolgimento dell’intera procedura[15], il Consiglio di Stato ha ripetutamente aperto all’utilizzo di procedure automatizzate nella decisione anche con profili decisamente discrezionali[16].
Il Consiglio di Stato ammette (ed anzi decisamente promuove) l’uso della automazione decisionale come strumento che garantisce rapidità, minori costi e più in generale efficienze nell’attività amministrativa, che anzi può in determinati casi meglio garantire anche maggiore neutralità e stabilità alle scelte di amministrazione attiva, il cui utilizzo non deve essere necessariamente circoscritto alle attività vincolanti della Pubblica Amministrazione.
Questo “carica” ancora più il compito della Amministrazione che decida di adottare procedure di decisione automatizzata; proprio le esigenze di rapidità ed efficienza che sono alla base di questa scelta pretendono a maggior ragione che il procedimento e la decisione automatizzata siano se appunto ammissibili gestiti nel miglior modo, onde evitare poi in via di controllo giudiziale[17] che le soluzioni che si dovrebbero così vengano stravolte da pronunce giudiziali demolitorie[18], che talora quasi in automatico farebbero cadere ad esempio quelle esigenze di rapidità che potrebbero essere state alla base della adozione della procedura “automatizzata”.
E però; talora anche chi apprezza e ritiene fondamentale la strada della automazione, precisa come l’adozione di tecniche informatiche “non esime dall’osservanza dei principi di trasparenza, pubblicità, proporzionalità e ragionevolezza che presiedono all’esercizio delle funzioni pubbliche. Proprio in ragione della natura provvedimentale dell’algoritmo, la Sezione VI ha statuito che i software utilizzati dalla Pubblica Amministrazione devono consentire la trasposizione in termini giuridici delle prescrizioni formulate in linguaggio computazionale, in modo che siano assicurate la conoscibilità e la comprensibilità dello schema logico di funzionamento del programma informatico..[…]”[19].
Credo si possa oggi affermare come dato condiviso come sia quantomeno necessario garantire la piena conoscenza ed il pieno esame di tutta la procedura algoritmica, dalla determinazione dei dati introdotti al controllo degli stessi, all’esame per comprendere se i dati siano o no esatti e completi, al controllo su chi li abbia determinati, alla piena conoscenza delle regole e degli algoritmi alla base del programma[20], della scelta del programma, della verifica dell’inesistenza di profili discriminatori[21] senza limitazioni date dalla tutela del segreto industriale[22] ecc.. nella costruzione del programma, alla spiegazione comprensibile dello stesso, all’esame dell’esito da verificare empiricamente secondo criteri di ragionevolezza e logica comprensibile del risultato; solo un output che superi tutti questi controlli potrà essere utilizzato[23].
Il Consiglio di Stato, ancora, avverte che i principi generali del diritto amministrativo, pretendono, anche nel rispetto dell’art. 28 della Costituzione, che la decisione finale sia comunque adottata dall’amministrazione e dall’organo-persona fisica; del resto la scelta del programma informatico adeguato allo scopo pubblico, il controllo sulla correttezza e la completezza dei dati immessi, sul perfetto funzionamento dell’algoritmo prescelto, la scelta di adottare il risultato automatizzato prescelto solo dopo aver verificato il risultato ritenendolo conforme, logico, razionale, con un provvedimento finale necessariamente motivato rimane dell’amministrazione e dell’organo-persona fisica che la manifesta[24].
Questa riflessione introduce pragmaticamente l’uso dell’IA, allo Stato, nella pubblica amministrazione come una attività, nella più parte dei casi, non integralmente sostitutiva del funzionario, cui è demandato esclusivamente un potere di controllo; ma come fondamentale ausilio che contribuisca a risolvere precipuamente alcuni momenti dell’attività istruttoria offrendo soluzioni con una riduzione del tasso di discrezionalità quando ciò sia possibile per l’oggettività dei risultati cui l’IA giunge, o perché comunque la o le soluzioni indicate riducono il tasso di discrezionalità in ambiti in cui i conflitti di interesse reali o potenziali tra diversi principi da tutelare (es. ambiente o produttività..) sono talmente forti[25] da suggerire l’intervento parziale di una macchina “fredda”. Una sostituzione, dunque, solo parziale dell’attività umana nella gestione dei procedimenti amministrativi.
In questo senso, appare potersi cogliere una evoluzione nelle recenti decisioni in tema del Consiglio di Stato, come già rilevato ferme da subito nel manifestare un pieno apprezzamento, apertura ed incoraggiamento alle decisioni amministrative adottate mediante l’utilizzo di una procedura digitale ed attraverso un algoritmo; si ritiene il software “a tutti gli effetti come un “atto amministrativo informatico”. Atto, però, che deve essere inquadrato anche all’interno dei principi che conformano il nostro ordinamento e che regolano lo svolgimento dell’attività amministrativa; sicché, “il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico. Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato; nella fattispecie concretamente decisa, il Consiglio di Stato accoglie il ricorso riscontrando “Alla luce delle riflessioni che precedono, l’appello deve trovare accoglimento, sussistendo nel caso di specie la violazione dei principi di imparzialità, pubblicità e trasparenza, poiché non è dato comprendere per quale ragione le legittime aspettative di soggetti collocati in una determinata posizione in graduatoria siano andate deluse. Infatti, l’impossibilità di comprendere le modalità con le quali, attraverso il citato algoritmo, siano stati assegnati i posti disponibili, costituisce di per sé un vizio tale da inficiare la procedura. Non solo, gli esiti della stessa paiono effettivamente connotati dall’illogicità ed irrazionalità denunciate dalle appellanti, essendosi verificate situazioni paradossali per cui docenti con svariati anni di servizio si sono visti assegnare degli ambiti territoriali mai richiesti e situati a centinaia di chilometri di distanza dalla propria città di residenza, mentre altri docenti, con minori titoli e minor anzianità di servizio, hanno ottenuto le sedi dagli stessi richieste”[26].
Nel dare continuità alla decisione il Consiglio di Stato ha, poi, decidendo su fattispecie analoghe, ulteriormente precisato la propria posizione: nella motivazione della pronuncia. Infatti, poi espressamente si estende[27] il favore verso l’utilizzo di software decisori anche a scelte a carattere “discrezionale”, e non soltanto a fattispecie vincolate, poiché entrambe espressione di attività autoritativa svolta nel perseguimento del pubblico interesse[28]. Anche attraverso l’esame della normativa europea, il Consiglio di Stato, fermi il necessario rispetto dei principi di trasparenza, conoscibilità, comprensibilità, per i soggetti coinvolti dall’attività amministrativa informatizzata in termini “istruttori e decisori” richiama, ancora, sotto il versante della verifica degli esiti e della relativa imputabilità, che debba essere anche garantita la verifica a valle, in termini di logicità e correttezza degli esiti[29]. In termini di imputabilità, poi, “anche al fine di applicare le norme generali e tradizionali in tema di imputabilità e responsabilità, occorre garantire la riferibilità della decisione finale all’autorità e all’organo competente in base alla legge attributiva del potere” (organo che dovrà potere esercitare il controllo sul procedimento e anche sugli esiti, determinandosi allora necessariamente una fattispecie che preveda un coinvolgimento umano che potrà anche distaccarsi dal risultato algoritmico).
Queste meditate riflessioni hanno ispirato la nuova disciplina del nuovo codice dei contratti pubblici[30], che all’art. 30 recita. “Art. 30. (Uso di procedure automatizzate nel ciclo di vita dei contratti pubblici): 1. Per migliorare l’efficienza le stazioni appaltanti e gli enti concedenti provvedono, ove possibile, ad automatizzare le proprie attività ricorrendo a soluzioni tecnologiche, ivi incluse l’intelligenza artificiale e le tecnologie di registri distribuiti, nel rispetto delle specifiche disposizioni in materia. 2. Nell’acquisto o sviluppo delle soluzioni di cui al comma 1 le stazioni appaltanti e gli enti concedenti: a) assicurano la disponibilità del codice sorgente, della relativa documentazione, nonché di ogni altro elemento utile a comprenderne le logiche di funzionamento;
b) introducono negli atti di indizione delle gare clausole volte ad assicurare le prestazioni di assistenza e manutenzione necessarie alla correzione degli errori e degli effetti indesiderati derivanti dall’automazione. 3. Le decisioni assunte mediante automazione rispettano i principi di: a) conoscibilità e comprensibilità, per cui ogni operatore economico ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino e, in tal caso, a ricevere informazioni significative sulla logica utilizzata;
b) non esclusività della decisione algoritmica, per cui comunque esiste nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatizzata;
c) non discriminazione algoritmica, per cui il titolare mette in atto misure tecniche e organizzative adeguate al fine di impedire effetti discriminatori nei confronti degli operatori economici. 4. Le stazioni appaltanti e gli enti concedenti adottano ogni misura tecnica e organizzativa atta a garantire che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori, nonché a impedire effetti discriminatori nei confronti di persone fisiche sulla base della nazionalità, dell’origine etnica, delle opinioni politiche, della religione, delle convinzioni personali, dell’appartenenza sindacale, dei caratteri somatici, dello status genetico, dello stato di salute, del genere o dell’orientamento sessuale. 5. Le pubbliche amministrazioni pubblicano sul sito istituzionale, nella sezione «Amministrazione trasparente», l’elenco delle soluzioni tecnologiche di cui al comma 1 utilizzate ai fini dello svolgimento della propria attività”[31].
Non sembrano, a prima vista, fissarsi paletti rigidi e limiti per l’uso dell’IA generativa (non solo la pura automazione), neanche per fattispecie connotate da discrezionalità. Ma immanente e pervasivo deve manifestarsi il controllo dell’uomo sui procedimenti e le decisioni assunte dalla IA, talché la regolazione di cui appunto all’art. 30 sembra ricalcare i canoni riservati dal Regolamento Europeo sull’intelligenza artificiale solo ai “sistemi ad alto rischio”, tra i quali è ricompresa la funzione giurisdizionale decisoria ma non anche, almeno de plano, quella amministrativa. (nell’attesa delle più puntuali definizioni che deriveranno dall’implementazione “regolatoria” della disciplina europea).
Si può in definitiva affermare come la disciplina Italiana, che pure permette ed anzi in alcuni casi promuove l’adozione di sistemi guidati dall’intelligenza artificiale, nella sottoposizione ad un pervasivo controllo umano, denoti in campo amministrativo una visione fortemente antropocentrica, che non è quindi patrimonio esclusivo della funzione giurisdizionale, e che si riverbererà anche sul successivo eventuale controllo giurisdizionale.
4.Concrete soluzioni per i problemi sul procedimento e la decisione “automatizzata” e sulla adozione di provvedimenti discrezionali
Così, dunque, il Consiglio di Stato; cosa ricavare, allora in via di ulteriore riflessione, da queste pronunce?
Il necessario rispetto dei principi del procedimento amministrativo, non formalmente in discussione, sembra tuttavia da “tarare” su un procedimento certo diverso, sicché le buone prassi riferite all’attività procedimentale “umana” dovranno essere riconsiderate; a me sembra, in realtà che la giurisprudenza apicale, in queste prime decisioni evidentemente “di principio”, voglia ancora tenersi “le mani libere”.
I meccanismi sia del procedimento che della decisione “automatizzata” vanno dunque ancora in larga parte precisati: ed è oggi forse già possibile riflettere senza ipocrisie o inutili giostre oratorie.
I “problemi” principali da affrontare io credo siano almeno quattro; come definire la partecipazione al procedimento amministrativo “informatizzato”, come sia possibile coniugare il superamento della logica umana, se e come superare il principio della “motivazione umana”, quando il procedimento e poi la decisione “appartengono” in grande misura al software (ferme certo le già indicate regole sulla necessaria attribuzione finale al funzionario “umano), e la eventuale delimitazione dei poteri discrezionali affidati alla decisione automatizzata.
E la esigenza di ripensamento va dunque adottata nel ricostruire le sufficienti e corrette modalità di partecipazione al procedimento istruttorio, che sembrerebbe allora doversi diversamente costruire tenuto conto dei limiti di intervento singolo sul software (quando le modalità di estrinsecazione al procedimento amministrativo in ipotesi di procedimenti e decisioni contrassegnate in toto da modalità telematiche e/o informatica non siano invece regolamentati ad hoc normativamente[32]).
Sul punto, con posizione ben più netta di quella desumibile dal Consiglio di Stato, più decisamente in dottrina si aggiunge che “L’utilizzo degli strumenti di automazione decisionale, dal quale necessariamente discende una necessaria riduzione/concentrazione temporale delle fasi costitutive del procedimento amministrativo, non può infatti risolversi in una compressione delle garanzie partecipative riconosciute dalla legge a tutela delle posizioni giuridiche soggettive correlate all’esercizio del potere. In altri termini, ove il processo di informatizzazione amministrativa precludesse il godimento delle facoltà collaborative e conoscitive previste dalle norme sullo svolgimento della sequenza procedimentale, la gestione elettronica dei rapporti giuridici di diritto pubblico della potestà autoritativa. L’interlocuzione istruttoria con il responsabile del procedimento, la presentazione di memorie e documenti, l’accesso “partecipativo” e “difensivo” ai documenti amministrativi devono essere garantiti anche nell’ambito dei procedimenti gestiti mediante tecnologie informatiche tradizionali o “intelligenti”.[33]
In argomento, si richiama la felice affermazione: “la legalità procedurale viene a rappresentare un essenziale ‘… crisma di legittimazione del potere autoritativo della pubblica amministrazione’”.[34]
Anche in questo caso, tuttavia, interpretare così la necessaria partecipazione al procedimento nella decisione algoritmica potrebbe comprimere le possibilità di utilizzo del software in più campi, una soluzione certo adottabile, ma che allo stato non pare in sintonia appunto con le indicazioni espresse o comunque desumibili dalle decisioni del Consiglio di Stato.
Sul procedimento automatizzato, appare in via generale, allo stato dell’arte, che la partecipazione che si può garantire con il procedimento informatico, una volta determinati i dati di input e i “pesi” eventuali da attribuire ai vari elementi dell’algoritmo appare non comparabile con il livello di partecipazione che si può garantire in un procedimento interamente retto da un funzionario umano; e anche la supervisione, che abbiamo già ricordato oggi (ancora?) indispensabile del funzionario non offre analoga partecipazione.
Rimane, però, la necessità di garantire, e riterrei fin da subito, già nella fase introduttiva e istruttoria, e non solo al termine dopo la comunicazione del provvedimento finale, la piena conoscenza della scelta e delle ragioni per le quali si è scelto di procedere con una procedura informatizzata[35], la scelta degli input da inserite, dei soggetti cui affidare il compito di procedere tecnologicamente, di garantire la piena conoscenza ed il pieno esame di tutta la procedura algoritmica, dalla determinazione dei dati introdotti al controllo degli stessi, all’esame per comprendere se i dati siano o no esatti e completi, al controllo su chi li abbia determinati, alla piena conoscenza delle regole e degli algoritmi alla base del programma, della scelta del programma, della verifica dell’inesistenza di profili discriminatori.
La necessaria presenza in funzione quantomeno di supervisione di un funzionario “umano” dovrà essere coniugata nel senso di consentire piena trasparenza del meccanismo e nel valutare la possibilità di consentire che un tempestivo intervento dell’interessato possa consentire anche una modifica dell’algoritmo o di alcuni input o elementi dello stesso programma (i singoli “pesi” per ogni interesse, ad esempio); così da consentire nella fase introduttiva e di istruzione un possibile ripensamento sulla stessa adozione della procedura informatizzata, o comunque in tesi anche miglioramento del risultato finale attraverso una correzione opportuna dei diversi elementi.
Infine, se questo basti o no, è lecito talora dubitare.
Se, come ora scritto, la partecipazione al procedimento nella fase introduttiva ed istruttoria è elemento fondamentale a legittimare democraticamente l’esercizio di poteri autoritativi, e se oggi ancora in concreto il procedimento “umanizzato” garantisce maggiormente il rispetto di questi valori piuttosto che il procedimento “automatizzato”; ciò significa che sarà necessario motivare esaustivamente e già al momento della scelta (non a posteriori con la comunicazione della decisione finale), le ragioni che inducono a preferire per il caso di specie l’adozione di una procedura “automatizzata[36].
Riflettiamo adesso sul provvedimento finale, adottato nelle forme informatiche già evidenziate con la necessaria attribuzione ad un funzionario “umano”.
In argomento, mi sembra tuttavia che il principio di motivazione e giustificazione della decisione acquisisca una diversa lettura, laddove nel provvedimento informatico il Consiglio di Stato sembra riferirsi al rispetto del richiamato fondamentale principio della “trasparenza” dello strumento informatico, ma non più spinto fino alla necessità di una giustificazione necessariamente autonoma del funzionario “uomo”; certo, così, il principio di giustificazione e motivazione del provvedimento amministrativo acquisisce un significato che mi appare appunto nuovo, almeno nelle ipotesi in cui il risultato sia ricavato attraverso il meccanismo del deep learning, che segue una logica che può anche essere diversa dalla logica umana, ma che evidentemente viene ritenuta comunque capace di fondare la decisione.
Si tratta, allora, di riflettere sia sulla “motivazione del computer,” che sulla “motivazione del supervisore”, il funzionario umano.
Quanto alla “motivazione” del computer, bisogna capire se in primo luogo il programma informatico debba avere una “motivazione” informatica, ed i contenuti di questa.
Certamente, come richiesto dal Consiglio di Stato, “i software utilizzati dalla Pubblica Amministrazione devono consentire la trasposizione in termini giuridici delle prescrizioni formulate in linguaggio computazionale, in modo che siano assicurate la conoscibilità e la comprensibilità dello schema logico di funzionamento del programma informatico”[37].
Chiarezza e trasparenza, non motivazione.
Sempre in termini di motivazione della “macchina”, si potrebbe pensare a qualcosa di più; lavorando sui concetti della Explanable artificial intelligence, così da fornire migliori modelli comunicativi informatici[38]
E, poi, anche ad un diverso ed ulteriore controllo che può essere chiesto al computer, che dovrebbe semplicemente adottare ed utilizzare ulteriori algoritmi, ovvero la valutazione della “sostenibilità” o no di alcune decisioni prese secondo ad esempio una logica diversa, magari una logica “umana”; e, poi, grazie agli ulteriori algoritmi che consentono la XAI, procedere anche ad offrire questa ulteriore chiave di lettura e conoscenza. Una ipotetica soluzione che, proprio in campo giuridico, potrebbe condurre ad un necessario controllo sulla base delle leggi vigenti proprio in questo modo.
In secondo luogo; analizzato contenuti e limiti della motivazione del “software”, si tratterà poi di definire quale sia il compito del funzionario umano che, si è già ricordato, sovraintende e si attribuisce il provvedimento.
Se debba motivare la sua decisione, così da attribuirsela consapevolmente attraverso un ragionamento umano (che tuttavia sarà presumibilmente talora diverso dall’adozione del deep learning[39]); o se debba lsolo limitarsi a dare atto di un controllo della procedura attuata dal software (rispondendo anche ed in particolare alle eventuali osservazioni dei controinteressati), dovendo essere in primo luogo in possesso delle necessarie competenze tecniche e motivando necessariamente comunque tanto la scelta al termine del percorso di recepire l’input della macchina allo stesso modo della scelta di discostarsene.
Rimane poi comunque, io credo, ulteriormente quantomeno la necessità per il funzionario di svolgere un ulteriore controllo “umano” sul risultato del software, sull’output, perché ritengo debba comunque, come “chiusura del sistema”, assegnarsi oggi al funzionario l’onere di valutare se i risultati della decisione automatizzata non siano empiricamente illogici o inaccettabili, tanto da condurre ad una diversa decisione con giustificazione e motivazione tradizionale.
Certo è, però, che anche in questo caso la motivazione appare ontologicamente diversa da come la si è sin qui ricostruita: si può acquisire un risultato ed esplicitarne le ragioni, ma (non più) spiegare come a questo (preliminare passaggio) si è pervenuti.
Un ulteriore riflessione va poi io credo riservata alla decisa apertura del Consiglio di Stato all’uso dell’algoritmo nell’adozione di provvedimento “discrezionale” da parte della pubblica amministrazione. Il Supremo Collegio in maniera tranchant equipara l’attività discrezionale a quella vincolata nell’indispensabile apertura ai nuovi strumenti. Però, certo, affidare ad un software un’attività riservata ad una valutazione umana, specie se il software potesse espandere al massimo le proprie capacità attraverso il deep learning, processi ovvero in cui la macchina si allontana (per la più parte, proficuamente), dalla logica umana, si palesa scelta che forse meriterebbe una più sofferta riflessione. In argomento, certo, soccorre la già richiamata esigenza di piena trasparenza e la figura del funzionario umana quantomeno se non in un autonomo esame che conduca ad una valutazione “umana” e di sostegno nell’analisi empirica del risultato (specie se sollecitato da partecipanti o eventuali interessati). Come forse sarebbe allo stato non previsto ma forse già prevedibile che il software non si limiti a fornire una sola risposta, ma offra quando possibile un ventaglio di soluzioni adottabili, indicando quelle secondo il suo “ragionamento” preferibili, ma data la natura discrezionale affidando al funzionario umano la decisione, che potrebbe distaccarsi motivatamente dai suggerimenti computazionali.
Una ulteriore soluzione da valutare, che circoscrive decisamente lo spazio assegnato alla “discrezionalità del computer” è oggi proposta in via dottrinaria da chi sostiene che “Se infatti il contenuto di tali decisioni viene determinato mediante l’utilizzo di algoritmi che sostituiscono l’attività umana, ciò non significa che tali processi decisionali siano espressione di un potere vincolato e non discrezionale. In realtà, come si dirà in dettaglio più avanti, se la decisione concreta rispetto ad un caso singolo (o meglio ai molti casi singoli) sarà determinata in via automatica dall’applicazione dell’algoritmo, la regola di giudizio o il criterio di decisione che nell’algoritmo (e dall’algoritmo) è posto è al contrario decisione tipicamente umana ed espressione di una scelta propriamente politica, o meglio discrezionale, frutto della ponderazione (id est attribuzione di un peso) maggiore o minore in relazione ad una pluralità di elementi di fatto. Quegli elementi di fatto cui grazie all’algoritmo verrà attribuito un “peso” predeterminato che consentirà l’assunzione di una decisione automatizzata. La definizione dell’algoritmo quindi come momento di determinazione in via preventiva ed astratta del peso da attribuirsi a diversi fatti ed interessi è una attività tipicamente umana, esercizio solo anticipato della scelta discrezionale, come da tempo si è avuto modo di ricostruire una nuova modalità di predeterminazione delle decisioni amministrative generali. La regola tecnica che governa ciascun algoritmo, in altri termini, resta pur sempre una regola amministrativa generale, costruita dall’uomo e non dalla macchina, per essere poi (solo) applicata
da quest’ultima, anche se ciò avviene in via esclusiva, assolve la stessa funzione che ab antiquo nel nostro diritto amministrativo assolvevano (ed ancor oggi in molti casi assolvono) gli atti amministrativi generali”. In questo modo, dunque, la discrezionalità verrebbe comunque affidata integralmente ad una valutazione “umana” (desumibile se non direttamente dalla legge, da una valutazione comunque umana da inserire come base per la determinazione dei “pesi” dei singoli dati nella costruzione dell’algoritmo).
Questa soluzione che pur sempre sacrifica le specifiche del caso concreto, in buona sostanza, “imbriglia” il software nella definizione dell’algoritmo: i “pesi” dei vari interessi in gioco saranno comunque rigidamente predeterminati dall’uomo. O dal legislatore, laddove l’attività sia vincolata o in via generale dal funzionario nella “taratura” dei dati e dei pesi. Il computer, quindi, sarà chiamato comunque a volgere un’attività pur sempre aliunde predefinita, e solo all’interno di questa ricostruzione potrà utilizzare le sue superiori capacità (il deep learning). Di ciò, tuttavia, nulla ancora esprime il Consiglio di Stato. E, forse, questo utilizzo, tranquillizzante per alcuni versi, sconta il limite di un’adozione non piena delle peculiari capacità cognitive del computer, che potrebbero invece rivelarsi assai importanti per garantire le migliori decisioni per alcuni procedimenti amministrativi.
Sono, peraltro, possibili anche soluzioni alternative a quelle proposte o adottate.
Come già accennato, si tratta, forse, di accettare che un procedimento e provvedimento “umano”, con annessa motivazione, allo stato dell’arte, garantisce maggiormente la piena partecipazione degli interessati rispetto a quanto sia oggettivamente possibile con una decisione “automatizzata”; e, pertanto, forse, si potrebbe più in generale pensare, che anche la semplice scelta di adottare un software piuttosto che un provvedimento umano munito di umana motivazione dopo un procedimento avanti ad un funzionario rappresenta una scelta anche gravida di conseguenze sulla decisione finale.
Potremmo così ritenere che la oggettiva compressione della garanzia del procedimento partecipato e della motivazione umana possa allo stato essere superata con la scelta di una decisione “automatizzata” solo quando ci siano ragioni (ad esempio enorme numero di partecipanti etc.) che la giustificano, e non ad libitum. E che anche questa decisione debba essere esplicitata e motivata a monte, e che residui un margine di controllo (e di contestazione) da parte degli interessati anche sotto questo profilo.
5.Il controllo giudiziale avverso il provvedimento amministrativo digitale
Questa lettura, correttamente, si riverbera sulla sindacabilità, poi, dell’amministrazione digitale da parte della giurisdizione amministrativa[40], cui va assicurata una sindacabilità incisiva: “come osservato da Consiglio di Stato “solo in questo modo è possibile svolgere, anche in sede giurisdizionale, una valutazione piena della legittimità della decisione; valutazione che, anche se si è al cospetto di una scelta assunta attraverso una procedura informatica, non può che essere effettiva e di portata analoga a quella che il giudice esercita sull’esercizio del potere con modalità tradizionali (par. 8.4). La Sezione VI ha inoltre precisato che il sindacato del giudice amministrativo concerne, in una prima fase, la correttezza delle attività che connotano il processo di automazione, a loro volta costituite non soltanto dalla costruzione dell’algoritmo, ma anche dall’acquisizione, dalla validazione e dalla gestione dei dati; in una seconda fase, la legittimità del provvedimento adottato dal software in esecuzione delle prescrizioni algoritmiche……[41][…].
Ritengo, ancora, che al giudice competa anche il controllo di esistenza e ragionevolezza sulla necessaria motivazione che io credo debba accompagnare la scelta del funzionario di affidare la procedura all’amministrazione digitale piuttosto che ad un più classico svolgimento del procedimento e provvedimento amministrativo[42].
E rimangono ancora all’interno del perimetro di controllo affidato poi al giudice amministrativo anche le scelte maturate dalla Pubblica Amministrazione sul programma da adottare (quando siano possibili più soluzioni), che dovrà avvenire nel rispetto della legge e sotto l’ulteriore profilo del controllo del vizio di sviamento o eccesso di potere[43]; come, ancora, sarà compito del giudice amministrativo verificare il rispetto della lettera e dello spirito della legge che pretende che il funzionario umano preposto al controllo sia in grado capire (anche a livello di sufficiente preparazione personale in tema) e quindi nella concreta possibilità di esercitare un controllo[44], e che motivi tanto la scelta al termine del percorso di recepire l’input della macchina allo stesso modo della scelta di discostarsene.
Il controllo giudiziale del potere amministrativo, quando l’amministrazione sia “digitale”, si rileva allora come un elemento non bypassabile, ma anzi assolutamente fondamentale ed indispensabile proprio per permettere l’adozione di queste tecnologie. Allo stato, l’automazione più o meno totale non preclude dunque al controllo giudiziale (la piena giustiziabilità del processo decisionale automatizzato), ma al contrario ne esalta il compito ultimo di esame; compito che ritengo dovrà essere esteso fino al finale controllo empirico dei risultati ricavati dall’algoritmo, con la necessità di un provvedimento demolitorio quando l’esito sia, pur nel rispetto dei criteri algoritmici, predeterminati o dalla stessa macchina “acquisiti”, concretamente illogico.
È vero che i meccanismi algoritmici tendono a presentarsi come apparati neutrali, e pertanto, allo stesso modo sembra potersi percepire l’Amministrazione che proceda adottando queste regole, che si presenta quasi essa stessa soggetta ad un calcolo, come tale dotato di criteri oggettivi, quasi avalutativi. Ma questa opinione potrebbe ben rivelarsi fallace: “Il margine discrezionale è sempre presente dietro ogni atto di rilevazione, classificazione e organizzazione. È neutrale l’inferenza, ma non l’assunzione dei dati e l’organizzazione dei processi inferenziali”[45].
Proprio attraverso il controllo giurisdizionale, quindi, si evita il rischio che la decisione automatizzata in sede amministrativa possa essere adottata strumentalmente proprio per ridurre il controllo sull’esercizio del potere esercitato dalla Pubblica Amministrazione
E si è a ragione notata l’esigenza di sapere chi (specie quando quest’attività sia svolta da informatici “privati”) introduca i concreto i dati (input), ma soprattutto strumenti che consentano di controllare per cogliere eventuali bias cognitivi che pregiudicano la soluzione finale (output), sicché “in una logica di moderna accountability occorre che il relativo uso sia accompagnato da un principio di spiegazione più consistente rispetto al procedimento governato da esseri umani”[46]; sotto certi profili, anzi, si potrebbe ritenere che combattere l’esistenza di bias sia assai più semplice versus una decisione automatizzata, in cui almeno in alcuni casi si può avere una idea degli elementi di conoscenza che la macchina ha, rispetto all’analogo controllo operato su un agente umano, il cui esame è meno oggettivo e gli eventuali pregiudizi del giudice umano più difficili da rilevare.
Il necessario rispetto della disciplina normativa introdotta dal regolamento Ue 2024 in diretto rapporto all’azione amministrativa (in materia organizzativa ecc..), insieme all’art. 30 del codice dei contratti pubblici ampliano decisamente il perimetro del controllo per violazione di legge, nonché i profili dell’eccesso di potere.
La decisione giurisdizionale, pertanto, non deve mai ridurre il controllo sull’esercizio del potere.
Al tempo stesso, tuttavia, appare altrettanto opportuno, credo, chiarire come anche il controllo giustamente capillare ed invasivo dell’autorità giurisdizionale nei confronti della decisione amministrativa “automatizzata”, non deve però indurre a ritenere che i rapporti tra i poteri siano in qualche modo cambiati[47]; ciò vale, in particolare, quando la decisione amministrativa automatizzata sia stata resa in un contesto nel quale si sono applicati profili di discrezionalità; l’esame del giudice amministrativo, se non gli sia attribuita la giurisdizione di merito, rimane sempre limitato alla verifica della legittimità del provvedimento attraverso l’assenza dei vizi di eccesso o sviamento di potere, e quindi alla verifica che la scelta adottata dalla amministrazione stia tra le “alternative” possibili, senza che l’esame rivolto alla decisione automatizzata induca erroneamente il giudice a ritenere di estendere la sua tutela oltre i limiti individuati dall’ordinamento, che non sono affatto messi in discussione dalla diversa forma decisionale (il riferimento è ai consueti limiti della giurisdizione riferiti alla invasione o sconfinamento nella sfera amministrativa) .
Rimarrebbe, infine, da analizzare anche il controllo del potere giudiziale sotto altro affascinante ed inquietante profilo; ovvero, la decisione giudiziale “automatizzata”, tema che, nel caso che ci occupa, potrebbe condurci anche a riflessioni su una tematica affatto particolare, nel caso in cui al giudice “robot” sia richiesto un controllo su una decisione amministrativa “automatizzata”[48].
E, tuttavia, per rispondere a questo interrogativo, va prima affrontato il tema della decisione robotica in via giudiziale, che tanto oggi occupa le riflessioni in ambito giuridico; e questo non è tema di queste mie brevi riflessioni
[1] Neri, Diritto amministrativo e intelligenza artificiale: un amore possibile. In Urbanistica e Appalti, 2021, fascicolo 5, p. 581 e segg
[5] Police, Scelta discrezionale e decisione algoritmica, in Il diritto nell’era digitale – persona, mercato, amministrazione, giustizia, a cura di R. Giordano A. Panzarola A. Police S. Preziosi M Proto, Milano, Giuffre, 486 ss.
[6] Questa predeterminazione, in via generale, potrebbe poi condurre a ridurre i rischi di soluzioni fondate sull’analisi fondate su ragioni particolari dettate dalla forza di alcuni soggetti nel loro caso di specie, che sarebbe ridotta da una prevalutazione con criteri generali
[7]Brighi, Informatica forense, algoritmi e garanzie processuali, in Ars interpretandi, 2021, 162.
[8] Messinetti, op.cit., 886 ss.; Zaccaria, Mutazioni del diritto: innovazioni tecnologiche e applicazioni predittive, in Ars Interpretandi 2021, 36.
[9] La riflessione, peraltro, implica di interrogarsi circa la natura giuridica (o meno) dell’algoritmo. Per la soluzione contraria, ma anche per un’analisi della letteratura al riguardo, si veda A.G. Orofino, G. Gallone, L’intelligenza artificiale al servizio delle funzioni amministrative: profili problematici e spunti di riflessione, in Giurisprudenza italiana, 2020, 1738 ss., in particolare 1744 ss.
[10] Per un’analisi riferita all’uso dell’intelligenza artificiale nell’ambito del potere discrezionale della pubblica amministrazione cfr. N. Paolantonio, Il potere discrezionale della pubblica automazione. Sconcerto e stilemi. (Sul controllo giudiziario delle “decisioni algoritmiche”), in Diritto amministrativo, 2021, 813 ss., dove anche per riferimenti dottrinari ulteriori.
[11] Ad esempio, si potrebbe pensare anche ad un diverso ed ulteriore controllo che può essere chiesto al computer, che dovrebbe semplicemente adottare ed utilizzare ulteriori algoritmi, ovvero la valutazione della “sostenibilità” o no di alcune decisioni prese secondo ad esempio una logica diversa, magari una logica “umana; e, poi, grazie agli ulteriori algoritmi che consentono la XAI, procedere anche ad offrire questa ulteriore chiave di lettura e conoscenza. Una ipotetica soluzione che, proprio in campo giuridico, potrebbe condurre ad un necessario controllo sulla base delle leggi vigenti proprio in questo modo; ma di ciò, dopo.
[12] In tema Gallone, Riserva di umanità, intelligenza artificiale e funzione giurisdizionale alla luce dell?IA Act. Considerazioni (e qualche proposta) attorno al processo amministrativo che verrà, in Judicium.it , 2024.
[13] Messinetti, La tutela della persona umana versus l’intelligenza artificiale. Potere decisionale dell’apparato tecnologico e diritto alla spiegazione della decisione automatizzata, in contr. e impr., 2019, 861 ss.
[14] Non credo, infatti, sia casuale come il Consiglio di Stato, nel motivare l’adesione all’apertura pur condizionata alle procedure algoritmiche, nella motivazione delle decisioni in argomento faccia fondamentalmente riferimento alla normativa europea sul regolamento europeo sulla protezione dei dati personali, e alle ulteriori evoluzioni, talora ancora in fieri, ricavate dai documenti e dalla normativa europea in tema. La letteratura ha sviluppato un concetto di trasparenza che prescinde e supera la mera conoscibilità del dato informatico, in ambito europeo puntualmente basandosi sulla disciplina del GDPR. Cfr. per tutti M.E. Kaminski, G. Malgieri, Algorithmic impact assessments under the GDPR: producing multi-layered explanations, in International Data Privacy Law, 2021, 125 ss.
[15] Così Tar Lazio Roma 10 settembre 2018, n. 9224. ; Tar Lazio 27 maggio 2019 n. 6607.
[16] Con la sentenza Cons. Stato 8 aprile 2019, n. 2270, il Consiglio di Stato ha pronunciato proprio sull’algoritmo della cd. “buona scuola”, accogliendo il ricorso dei docenti. Premesso come “non può essere messo in discussione che un più elevato livello di digitalizzazione dell’amministrazione pubblica sia fondamentale per migliorare la qualità dei servizi resi ai cittadini ed agli utenti”, il Consiglio ritiene che l’algoritmo, ovvero il software, debba essere considerato come un atto amministrativo informatico; Consiglio di Stato 13 dicembre 2019 n. 8472 afferma come”11. Né vi sono ragioni di principio, ovvero concrete, per limitare l’utilizzo all’attività amministrativa vincolata piuttosto che discrezionale, entrambe espressione di attività autoritativa svolta nel pubblico interesse. In disparte la stessa sostenibilità a monte dell’attualità di tale distinzione…..; Consiglio di Stato 4 febbraio 2020 n. 881 laddove si afferma che “tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale dei dati selezionati come rilevanti. Ciò al fine di poter verificare che i criteri, i presupposti e gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato. In proposito, va ribadito che, la “caratterizzazione multidisciplinare” dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile. Con le già individuate conseguenze in termini di conoscenza e di sindacabilità”.
[18] Pesce, Intelligenza artificiale, procedimento e soluzione dei conflitti tra interessi, in Il diritto nell’era digitale – Persona, Mercato, Amministrazione, Giustizia, a cura di R. Giordano, A. Panzarola, A. Police S. Preziosi, M. Proto, Milano, Giuffrè,999.
[19] Neri, op. cit, avverte come…… “dei principi di trasparenza, pubblicità, proporzionalità e ragionevolezza che presiedono all’esercizio delle funzioni pubbliche. Proprio in ragione della natura provvedimentale dell’algoritmo, la Sezione VI ha statuito che i software utilizzati dalla Pubblica Amministrazione devono consentire la trasposizione in termini giuridici delle prescrizioni formulate in linguaggio computazionale, in odo che siano assicurate la conoscibilità e la comprensibilità dello schema logico di funzionamento del programma informatico. […]. Solo in questo modo è possibile svolgere, anche in sede giurisdizionale, una valutazione piena della legittimità della decisione; valutazione che, anche se si è al cospetto di una scelta assunta attraverso una procedura informatica, non può che essere effettiva e di portata analoga a quella che il giudice esercita sull’esercizio del potere con modalità tradizionali (par. 8.4). La Sezione VI ha inoltre precisato che il sindacato del giudice amministrativo concerne, in una prima fase, la correttezza delle attività che connotano il processo di automazione, a loro volta costituite non soltanto dalla costruzione dell’algoritmo, ma anche dall’acquisizione, dalla validazione e dalla gestione dei dati; in una seconda fase, la legittimità del provvedimento adottato dal software in esecuzione delle prescrizioni algoritmiche……[…]L’utilizzo degli strumenti di automazione decisionale, dal quale necessariamente discende una necessaria riduzione/concentrazione temporale delle fasi costitutive del procedimento amministrativo, non può infatti risolversi in una compressione delle garanzie partecipative riconosciute dalla legge a tutela delle posizioni giuridiche soggettive correlate all’esercizio del potere. In altri termini, ove il processo di informatizzazione amministrativa precludesse il godimento delle facoltà collaborative e conoscitive previste dalle norme sullo svolgimento della sequenza procedimentale, la gestione elettronica dei rapporti giuridici di diritto pubblico della potestà autoritativa. L’interlocuzione istruttoria con il responsabile del procedimento, la presentazione di memorie e documenti, l’accesso “partecipativo” e “difensivo” ai documenti amministrativi devono essere garantiti anche nell’ambito dei procedimenti gestiti mediante tecnologie informatiche tradizionali o “intelligenti”. Come rilevato dalla dottrina “la legalità procedurale viene a rappresentare un essenziale ‘… crisma di legittimazione del potere autoritativo della pubblica amministrazione’”.
[20] C.d.S., 13 dicembre 2019 n. 8972 “..in senso contrario non può assumere rilievo l’invocata riservatezza delle imprese produttrici dei meccanismi informatici utilizzati i quali, ponendo al servizio del potere autoritativo tali strumenti, all’evidenza ne accettano le relative conseguenze in termini di necessaria trasparenza”.
[21]Amato, Emozioni sintetiche e sortilegi al silicio, in Ars Interpretandi, 2021, 147, riferisce del ritiro nel Regno Unito dell’algoritmo usato per stabilire il voto all’esame di maturità del 2020, perché ritenuto discriminatorio.
[22] E tuttavia, in argomento, v. anche Consiglio di Stato ord. 15 ottobre 2024 n.8278, per la rimessione alla Corte di Giustizia UE sulla necessità di valutare se il conflitto tra il diritto alla tutela giurisdizionale e il diritto alla tutela dei segreti commerciali possa risolversi de plano con la prevalenza del primo (anche in ipotesi di possibile uso emulativo del diritto di accesso alla offerta tecnica del ricorrente), o non sia invece necessario procedere ad un diverso bilanciamento degli interessi nei casi di specie alla luce della tutela del segreto tecnico o commerciale previso dalla normativa Unionale.
[23] Su tutti questi aspetti si veda adesso il regolamento europeo sull’intelligenza artificiale (EU Artificial Intelligence Act) nella sua ultima versione del 21 gennaio 2024, dove appunto per l’implementazione espressa dei principi di trasparenza e del controllo umano (cfr., tra gli altri, gli articoli 13 e 14).
[24] Già l’art. 22 del Regolamento sulla protezione dei dati personali (GDPR) sanciva il divieto di sottoporre l’individuo a processi decisionali meramente automatizzati. E, però, già l’art. 23 permette la limitazione del diritto quando la limitazione rispetti i diritti e le libertà fondamentali e sia una misura proporzionata per salvaguardare una ampia serie di interessi pubblici, che ricomprende un ambito quasi coincidente con i compiti della P:A: Rimarrebbe, comunque, il disposto del considerando 71 del Regolamento che tende, pur in presenza di automatizzazione, “la subordinazione a garanzie adeguate, che dovrebbero comprendere la specifica informazione all’interessato e il diritto di ottenere l’intervento umano, di esprimere la propria opinione, di ottenere una spiegazione della decisione conseguita dopo tale valutazione e di contestare la decisione”. In argomento, Galletta-Corvalan, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto, in Federelasmi.it, 2019, f. 3, par. 5, 15 ss.
[27] C.d.S. 13 dicembre 2019 n. 8472; C.d.S. 4 febbraio 2020 n. 881.
[28]In tema, è assai interessante riportare la meditata posizione di Police, op. cit., 487. L’autore non prevede e dunque non prende posizione sull’ammissibilità o no di un software costruito in modo tale per cui i “pesi” predeterminati dall’operatore umano siano lasciati in tutto o in parte alla indeterminatezza ed alla scelta del software.
[29] Da ultimo cfr. Consiglio di Stato, 28 aprile 2023, n. 4297, dove si afferma che “il ricorso a strumenti informatici nelle procedure amministrative costituisce una modalità agevolata di istruttoria, senza che il singolo strumento – per quanto qualificabile in termini di intelligenza artificiale – possa, da un lato, derogare alle regole normative ed ai criteri posti a presupposto della singola procedura, e dall’altro lato, essere sottratto alla trasparenza nonché alla imputabilità all’amministrazione procedente. Quest’ultima è chiamata a verificare la correttezza del funzionamento dello strumento istruttorio utilizzato e la relativa coerenza agli obiettivi ed alle regole dettate, in coerenza al principio di legalità, per l’esercizio del potere in esame”
[33] Neri, op. cit., ; M.C. Cavallaro–G. Smorto, Decisione pubblica e responsabilità dell’amministrazione nella società dell’algoritmo, in Federalismi.it, 2019, 18-19, sul sito www.federalismi.it.
[34] D. U. Galetta – J. G. Corvalàn, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità rischi e sfide della rivoluzione tecnologica in atto, in Federalismi.it, 17, sul sito www.federalismi.it.
[35] Per le ragioni di cui alla fine del paragrafo.
[36] Tutto va naturalmente parametrato alla luce della disciplina normativa. L’art. 19 comma 7s.gls 36/2023, codice dei contratti pubblici, ad esempio, prevede, laddove possibile, che le stazioni appaltanti debbano fare affidamento su procedure automatizzate nella valutazione delle offerte, riservando altre procedure solo a ipotesi allora eccezionali e che dovranno essere debitamente motivate.
[40] In tema, Gallone, Riserva di umanità, intelligenza artificiale e funzione giurisdizionale alla luce dell’IA Act. Considerazioni (e qualche proposta) attorno al processo che verrà, Judicium.it, 2024, con considerazioni assai interessanti sull’uso dell’intelligenza artificiale da parte del giudice amministrativo.
In argomento, non tutti i sistemi di IA in materia giurisdizionale (All.3 par.8) vanno però considerati sistemi ad altro rischio; v. ad esempio il considerando 53 del Regolamento UE (anche art. 6 par.3), così anche il considerando 61che classifica come sistemi ad alto rischio i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie che producono effetti giuridici per le parti, ma non le attività puramente accessorie
[42] Quando naturalmente la disposizione legislativa non preveda all’opposto espressamente una preferenza per una gestione automatizzata, come ad es. art. 19 comma 7.
[43] Anche per tali ragioni appaiono convincenti gli spunti interpretativi che suggeriscono al legislatore di provvedere in modo tale che l’utilizzo di programmi di intelligenza artificiale da parte del giudice (ad esempio, la formulazione di un quesito di diritto rivolto alla macchina) debba essere comunicato alle parti e confluire nel processo consentendo il contraddittorio sul risultato. Gallone, op. cit.
[44] In certo modo, v. per spunti l’art. 14 par.4 del regolamento Europeo del 2024.
[45]Amato, Emozioni sintetiche e algoritmi al silicio cit., 132.
[47]Patroni Griffi, La decisione robotica e il giudice amministrativo, La decisione robotica a cura di A. Carleo, Bologna, 2019, 169.
[48] Il tema, tuttavia, almeno in ambito Comunitario, dovrebbe essere affrontato alla luce del Regolamento europeo in tema di intelligenza artificiale del luglio 2024, che per quanto attiene alla funzione giurisdizionale ha dato consacrazione alla “riserva di umanità” per il giudice.