Riflessioni sul controllo giudiziale del potere. L’amministrazione digitale. Intelligenza  artificiale e controllo giudiziale

Di Fabio Santangeli -

Sommario: 1.  L’amministrazione digitale – 2. Segue. Alcuni problemi alla luce degli attuali limiti della intelligenza artificiale – 3.  Segue. Il procedimento amministrativo “automatizzato” e il controllo nel procedimento. La posizione del Consiglio di Stato. – 4. Concrete soluzioni per i problemi sul procedimento e la decisione “automatizzata” e sulla adozione di provvedimenti discrezionali. – 5. Il controllo giudiziale avverso il provvedimento amministrativo digitale.

1. L’amministrazione digitale

L’ambito della cognizione sui vizi sostanziali e procedimentali della P.A., nel nostro ordinamento, è in costante evoluzione, e tuttavia molti elementi possono ben definirsi con chiarezza allo stato attuale, sia per la giurisdizione di legittimità che per quella esclusiva.

Certo, non tutto è pacifico e condiviso.

Questo quadro, comunque in costante e spesso sincronica evoluzione, rischia tuttavia di essere davvero terremotato dall’irrompere in ambito pubblico dell’intelligenza artificiale.

L’utilizzo dell’intelligenza artificiale, delle nuove tecnologie informatiche nello svolgimento dell’attività amministrativa è tema di estrema attualità.

Dall’utilizzo del computer per la semplice elaborazione di atti poi stampati e sottoscritti manualmente, fino all’adozione di provvedimenti amministrativi informatici sottoscritti digitalmente insieme all’utilizzo di tecnologie di trasmissione, il passo è stato deciso.

Non si tratta, come è evidente a tutti coloro avveduti della attuale situazione, di riflessioni rivolte a un “futuro prossimo”. O, meglio, è probabile che la vera partita si giocherà sempre nell’attualità, avuto riguardo all’evoluzione della intelligenza artificiale, che promette e mantiene nuove soluzioni con una rapidità evolutiva sorprendente, sicché ogni considerazione odierna andrà rivalutata e ripensata in tempi brevi, il che si rappresenta come un ulteriore problema, perché i nostri tempi “umani” di riflessione e produzione sono già oggi “drammaticamente” più lunghi rispetto alle novità in ambito digitale.

Già adesso, l’uso dell’intelligenza artificiale pervade il mondo della amministrazione pubblica. E ci mette di fronte ad una clamorosa novità, su cui dobbiamo prendere posizione, anche sotto il profilo del controllo.

L’evoluzione informatica ci pone oggi di fronte ad una nuova sfida, “l’automazione di funzioni precedentemente affidate in via esclusiva alle abilità umane. Il fenomeno dell’informatizzazione amministrativa si manifesta secondo distinti gradi di intensità. L’automazione si definisce “completa” allorquando il computer si avvale di programmi di intelligenza artificiale per l’adozione del provvedimento finale, senza che il contributo dell’attività umana sia necessario per la formazione della volontà dell’Amministrazione. In altri casi l’intervento umano si riduce all’approvazione o alla revisione del contenuto di un atto proposto dall’elaboratore elettronico all’esito di una procedura automatizzata. L’intelligenza artificiale può inoltre avvalersi di tecniche di apprendimento automatico consistenti nell’apprendimento e nella valutazione di dati eterogenei sulla base dei quali il programma informatico formula decisioni[1].

La riflessione è, poi, ulteriormente resa affascinante dall’attuale stato della manifestazione della intelligenza artificiale. Senza la necessità di affaticarsi in una riduzione in pillole di saperi matematici (a me) lontani, è però un dato di fatto che l’attuale stato della intelligenza artificiale (grazie all’adozione di reti neurali, attraverso le mature tecnologie del deep learning, grazie al processamento di un numero incredibile di dati, all’autoallenamento dei programmi, allo loro autonoma rielaborazione ed alla capacità di affrontare ormai da soli nuove situazioni non precedentemente conosciute) in quasi tutti i campi dove si estrinseca(va) il sapere umano procede alla risoluzione di problemi ed a ricavare soluzioni che si rivelano, ad un esame empirico (laddove naturalmente questo esame sia possibile), spesso di qualità superiore a quelle che un ragionamento umano è in grado di raggiungere. Questo, però, è uno dei temi principali: la logica del computer che sta dietro le soluzioni proposte non è la logica umana, ma qualcosa di ontologicamente diverso. Possiamo dire che il computer conosce il nostro modo di ragionare, mentre noi conosciamo meno il modo di ragionare del computer.

Un esempio concreto, oggetto di verifica giurisprudenziale, è stato offerto dalla decisione del ministero dell’istruzione di affidarsi integralmente ad un algoritmo per determinare gli esiti di un concorso, la graduatoria e le località di esercizio, di personale scolastico, che ha inciso sulla vita di migliaia di insegnanti[2].

E, ad esempio, appare quasi immediata la possibilità di utilizzare esclusivamente algoritmi anche in materia di attribuzione di finanziamenti, di assegnazione di appalti, di graduazioni in generale… etc…tutte le volte in cui sia possibile e si vogliano individuare criteri chiari e non marcatamente arbitrari nella decisione amministrativa.

In queste ipotesi, deve essere chiaro; in teoria, è possibile, se si vuole, regolamentare la materia assegnando integralmente alla macchina ogni scelta. Stiamo ragionando non solo su decisioni   comunque “automatiche” perché prive di alcun elemento discrezionale, ma anche di decisioni in cui permangono elementi discrezionali, le cui finalità tuttavia debbono essere chiaramente esplicitate per consentire la costruzione di programmi informatici che a queste tendano (secondo una “regola di trasparenza algoritmica che pretende l’esplicitazione del funzionamento e dei fini dell’algoritmo). Una vera e propria automazione di processi decisionali, dunque, prima affidati alle abilità umane.

La possibile adozione di programmi di intelligenza artificiale di tal fatta sembra doversi considerare con particolare attenzione, alla luce del fondamentale canone dell’art. 97 cost.[3]; ed in effetti i risparmi in termini di costi e di tempi per una amministrazione automatizzata, a parte la percezione dell’esclusione del rischio di fenomeni lato sensu corruttivi ( o di remore per la preoccupazione di responsabilità) nell’attività di decisione e di scelta, la possibilità di ridurre errori in sede istruttoria nella conoscenza e nel processamento di conoscenze, sembrano da tenere in particolare considerazione nella determinazione delle scelte da operare in materia.

2. Segue. Alcuni problemi alla luce degli attuali limiti della intelligenza artificiale

Tuttavia, l’utilizzo di una forma di intelligenza artificiale come ora delineata deve confrontarsi con alcuni problemi, di taglio generale, prima ancora di valutarli sotto il peculiare profilo del procedimento e dell’attività amministrativa, per testarne l’adottabilità.

Come ogni attività, umana e non, anche un prodotto di una intelligenza artificiale può essere difettoso.

Ed il meccanismo che conduce al prodotto, va, pertanto, attentamente controllato.

La necessità di utilizzare una enorme massa di dati perché l’intelligenza artificiale possa conseguire risultati soddisfacenti pone in alcuni casi problemi di tutela della privacy che vanno gestiti[4]. Più ancora, la soluzione dipenderà dai dati introdotti. Attraverso errori anche involontari nel fornire o no dati non corretti, il programma da risposte (output) non consone; trash in, trash out, come usa dirsi.

La selezione delle informazioni è dunque un elemento essenziale, quello che più facilmente influenza l’output.

Anche nella costruzione dell’algoritmo, poi, possono nascondersi errori o pregiudizi del programmatore che ovviamente determinano le soluzioni.

Tutte le volte, poi, che si attribuisca un peso maggiore o minore ad una classe di elementi di fatto piuttosto che ad un’altra nella elaborazione del programma, laddove i “pesi” siano determinati da una scelta a monte, allora il momento discrezionale attiene ad una attività che deve essere pienamente conosciuta e svelata (anche se umana)[5] (e può naturalmente poi essere sindacata e contestata)[6].

Più in generale, almeno fino a poco tempo fa l’applicazione della intelligenza artificiale in alcuni campi era frenata dal fenomeno della c.d. Black box, dalla opacità del meccanismo alla luce di programmi che davano l’output, senza preoccuparsi di spiegare come si fosse giunti a quella determinata soluzione. Almeno a livello teorico, tuttavia, la percezione è radicalmente mutata: “La comunità scientifica, peraltro, mostra grande attenzione al tema della spiegabilità delle I.A., percepito anche dai tecnici come essenziale, diversi progetti di ricerca affrontano il problema della progettazione di sistemi di IA secondo un paradigma di explanation by design. Un’adeguata spiegabilità, ex ante ed ex post, e garantita dalla conoscibilità, non solo dei modelli matematici e informatici e dell’implementazione tecnica, ma anche dei dati di training, di sviluppo, di testing e di contesto su cui è basata la decisione automatica. Per scenari complessi, dove si individuano più livelli di spiegabilità, si stanno studiando strumenti capaci di dare accesso a algoritmi e strutture dati in forma comprensibile e dinamica, con l’aiuto per esempio di grafi della conoscenza e moduli di question answering[7]. E, tuttavia, si è spesso ancora lontani dal raggiungere quello che però appare un obiettivo condiviso, una decisa implementazione dei modelli comunicativi dell’informatica.

Un punto ulteriore, però, va sottolineato; il problema della trasparenza e della chiarezza esplicativa, deve fare i conti con una opacità che sembra invece intrinseca nelle attuali tecnologie dell’intelligenza informatica: per alcuni modelli decisionali fondati sul machine learning è comunque particolarmente difficile conoscere della logica che governa proprio la fase della costruzione degli outputs, perché la logica effettivamente utilizzata dal sistema “non sarebbe esaustivamente rappresentabile ex ante, attesa l’imprevedibilità degli effetti computazionali dell’apprendimento autonomo”, ma in realtà verrebbe coniata “in itinere, dalle dinamiche peculiari dell’apprendimento concretamente realizzato; non sarebbe cioè predeterminata (dall’uomo) bensì verrebbe autodefinita (dal sistema) a mano a mano che il sistema apprende; ciò che, per definizione, avviene secondo modalità che non sono preconfigurate in virtù della programmazione, non risultando incluse in modo intellegibile nei suoi codici….”[8].

E di non nascondere le complessità di un controllo efficace dei meccanismi che conducono alla decisione del caso di specie proprio nelle applicazioni più complesse e innovative dell’intelligenza artificiale, perché più le decisioni si distaccano da assunti precedenti o affrontano territori vergini, più complesse sono da decidere ed i meccanismi che conducono alla decisione non sono per forza gli stessi della logica umana. Sembra, paradossalmente, che migliori sono le prestazioni del sistema, più difficile è la spiegazione.

Una ulteriore riflessione, infine, va dedicata proprio alle prestazioni finali; rimane, infatti, la necessità laddove possibile, di verificare empiricamente se la soluzione adottata dall’automazione della decisione conduca a risultati accettabili; il criterio empirico rimane, a mio avviso, una dimensione di controllo di particolare efficacia.

3. Segue. L’I:A: nel campo del diritto. Il procedimento amministrativo “automatizzato” e il controllo nel procedimento. La posizione del Consiglio di Stato.

Si tratta, poi, di comprendere, chi e come possa o debba controllare i dati e gli algoritmi utilizzati dal robot. Se il controllo debba essere anche preventivo, se riservato ad associazioni civili o a portatori di interessi[9] La questione riveste termini generali, ed assume una importanza fondamentale quando si voglia fare dei programmi un utilizzo pubblico o comunque rivolto a terzi, ed ancor più quando l’utilizzo sia adottato da un’autorità pubblica[10].

Ciò può legittimamente condurre ad una riflessione di fondo, e cioè se sia o no giuridicamente e socialmente accettabile riconoscere esiti fondati su decisioni che non sono irrazionali, ma comunque dovremmo percepire così se non possiamo controllarle; il compito della XAI, è certo assai arduo.

Ogni campo dello scibile umano investito da soluzioni algoritmiche è chiamato a rispondere a questi interrogativi, e le risposte ben potranno non essere univoche[11].

E, quanto al campo del diritto.

A livello Europeo, peraltro, la riflessione limitatamente al campo del diritto va probabilmente diversificata tra la funzione giurisdizionale e le altre funzioni. Laddove la “riserva di umanità”, la visione antropocentrica della fase giurisdizionale sono divenute un principio sia immanente che espresso, ricavabile già dall’art. 6 della Convenzione dei diritti dell’Uomo, e da ultimo espressi nel Regolamento europeo in tema di intelligenza artificiale del luglio 2024[12], che qualifica i sistemi di IA: in materia come sistemi “ad alto rischio” di cui all’art. 6 par. 2 del Regolamento, che pretende la facoltatività dell’impiego della IA e comunque l’effettiva e totale sorveglianza umana, cui riservare la decisione finale giurisdizionale (provata o pubblica), talché un processo diversamente costruito sarebbe afflitto da vizio per contrasto con il regolamento UE. il pieno controllo dell’Uomo.

In questo senso, il Regolamento Europeo in oggetto diversifica la funzione giurisdizionale dalla funzione amministrativa. Se pure rimane ferma la visione antropocentrica evidente nella ispirazione e nelle disposizioni del Regolamento anche sulle altre attività, che non possono che incidere anche in campo amministrativo, e i margini ulteriori che al funzionario possono pur sempre essere ulteriormente riconosciuti dalle normative legislative e giurisprudenziali degli stati nazionali.

Per quanto riguarda il campo del diritto, quanto al problema della “opacità”, su un piano giuridico, si avverte spesso dell’esistenza del diritto a ottenere una “spiegazione significativa” della logica concretamente utilizzata nel processo decisionale automatizzato, e che le conseguenze di una irrealizzabilità pratica di questo diritto comporti il divieto di sottoporre la persona a tale processo decisionale[13].

La riflessione deve farsi ancora più specifica se si guarda alla questione dal punto di vista del diritto amministrativo.

Una attenta giurisprudenza di merito ha ritenuto, ad esempio, che le procedure informatiche, “finanche ove pervengano al loro maggior grado di precisione e addirittura alla perfezione, non possono mai soppiantare, sostituendola davvero appieno, l’attività cognitiva, acquisitiva e di giudizio che solo un’istruttoria affidata ad un funzionario persona fisica è in grado di svolgere e che pertanto, al fine di assicurare l’osservanza degli istituti di partecipazione, di interlocuzione procedimentale, di acquisizione degli apporti collaborativi del privato e degli interessi coinvolti nel procedimento, deve seguitare ad essere il dominus del procedimento stesso, all’uopo dominando le stesse procedure informatiche predisposte in funzione servente e alle quali va dunque riservato tutt’oggi un ruolo strumentale e meramente ausiliario in  seno al procedimento amministrativo e giammai dominante o surrogatorio dell’attività dell’uomo”. Secondo il collegio osterebbe, infatti, alla “dismissione delle redini della funzione istruttoria e di abdicazione a quella provvedimentale, il presidio costituito dal baluardo dei valori costituzionali scolpiti negli artt. 3, 24, 97 della Costituzione oltre che all’art. 6 della Convenzione europea dei diritti dell’uomo”.

Una indicazione decisa, che, tuttavia, ci allontanerebbe, forse, dalla evoluzione europea in tema[14].

Superando dunque una impostazione di parte della giurisprudenza di merito tesa a negare l’uso dell’algoritmo nello svolgimento dell’intera procedura[15], il Consiglio di Stato ha ripetutamente aperto all’utilizzo di procedure automatizzate nella decisione anche con profili decisamente discrezionali[16].

Il Consiglio di Stato ammette (ed anzi decisamente promuove) l’uso della automazione decisionale come strumento che garantisce rapidità, minori costi e più in generale efficienze nell’attività amministrativa, che anzi può in determinati casi meglio garantire anche maggiore neutralità e stabilità alle scelte di amministrazione attiva, il cui utilizzo non deve essere necessariamente circoscritto alle attività vincolanti della Pubblica Amministrazione.

Questo “carica” ancora più il compito della Amministrazione che decida di adottare procedure di decisione automatizzata; proprio le esigenze di rapidità ed efficienza che sono alla base di questa scelta pretendono a maggior ragione che il procedimento e la decisione automatizzata siano se appunto ammissibili gestiti nel miglior modo, onde evitare poi in via di controllo giudiziale[17] che le soluzioni che si dovrebbero così vengano stravolte da pronunce giudiziali demolitorie[18], che talora quasi in automatico farebbero cadere ad esempio quelle esigenze di rapidità che potrebbero essere state alla base della adozione della procedura “automatizzata”.

E però; talora anche chi apprezza e ritiene fondamentale la strada della automazione, precisa come l’adozione di tecniche informatiche “non esime dall’osservanza dei principi di trasparenza, pubblicità, proporzionalità e ragionevolezza che presiedono all’esercizio delle funzioni pubbliche. Proprio in ragione della natura provvedimentale dell’algoritmo, la Sezione VI ha statuito che i software utilizzati dalla Pubblica Amministrazione devono consentire la trasposizione in termini giuridici delle prescrizioni formulate in linguaggio computazionale, in modo che siano assicurate la conoscibilità e la comprensibilità dello schema logico di funzionamento del programma informatico..[…]”[19].

Credo si possa oggi affermare come dato condiviso come sia quantomeno necessario garantire la piena conoscenza ed il pieno esame di tutta la procedura algoritmica, dalla determinazione dei dati introdotti al controllo degli stessi, all’esame per comprendere se i dati siano o no esatti e completi, al controllo su chi li abbia determinati, alla  piena conoscenza delle regole e degli algoritmi alla base del programma[20], della scelta del programma, della verifica dell’inesistenza di profili discriminatori[21] senza limitazioni date dalla tutela del segreto industriale[22] ecc.. nella costruzione del programma, alla spiegazione comprensibile dello stesso, all’esame dell’esito da verificare empiricamente secondo criteri di ragionevolezza e logica comprensibile del risultato; solo un output che superi tutti questi controlli potrà essere utilizzato[23].

Il Consiglio di Stato, ancora, avverte che i principi generali del diritto amministrativo, pretendono, anche nel rispetto dell’art. 28 della Costituzione, che la decisione finale sia comunque adottata dall’amministrazione e dall’organo-persona fisica; del resto la scelta del programma informatico adeguato allo scopo pubblico, il controllo sulla correttezza e la completezza dei dati immessi, sul perfetto funzionamento dell’algoritmo prescelto, la scelta di adottare il risultato automatizzato prescelto solo dopo aver verificato il risultato ritenendolo conforme, logico, razionale, con un provvedimento finale necessariamente motivato rimane dell’amministrazione e dell’organo-persona fisica  che la manifesta[24].

Questa riflessione introduce pragmaticamente l’uso dell’IA, allo Stato, nella pubblica amministrazione come una attività, nella più parte dei casi, non integralmente sostitutiva del funzionario, cui è demandato esclusivamente un potere di controllo; ma come fondamentale ausilio che contribuisca a risolvere precipuamente alcuni momenti dell’attività istruttoria offrendo soluzioni con una riduzione del tasso di discrezionalità quando ciò sia possibile per l’oggettività dei risultati cui l’IA giunge, o perché comunque la o le soluzioni indicate riducono il tasso di discrezionalità in ambiti in cui i conflitti di interesse reali o potenziali tra diversi principi da tutelare (es. ambiente o produttività..) sono talmente forti[25] da suggerire l’intervento parziale di una macchina “fredda”. Una sostituzione, dunque, solo parziale dell’attività umana nella gestione dei procedimenti amministrativi.

In questo senso, appare potersi cogliere una evoluzione nelle recenti decisioni in tema del Consiglio di Stato, come già rilevato ferme da subito nel manifestare un pieno apprezzamento, apertura ed incoraggiamento alle decisioni amministrative adottate mediante l’utilizzo di una procedura digitale ed attraverso un algoritmo; si ritiene il software “a tutti gli effetti come un “atto amministrativo informatico”. Atto, però, che deve essere inquadrato anche all’interno dei principi che conformano il nostro ordinamento e che regolano lo svolgimento dell’attività amministrativa; sicché, “il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico. Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato; nella fattispecie concretamente decisa, il Consiglio di Stato accoglie il ricorso riscontrando “Alla luce delle riflessioni che precedono, l’appello deve trovare accoglimento, sussistendo nel caso di specie la violazione dei principi di imparzialità, pubblicità e trasparenza, poiché non è dato comprendere per quale ragione le legittime aspettative di soggetti collocati in una determinata posizione in graduatoria siano andate deluse. Infatti, l’impossibilità di comprendere le modalità con le quali, attraverso il citato algoritmo, siano stati assegnati i posti disponibili, costituisce di per sé un vizio tale da inficiare la procedura. Non solo, gli esiti della stessa paiono effettivamente connotati dall’illogicità ed irrazionalità denunciate dalle appellanti, essendosi verificate situazioni paradossali per cui docenti con svariati anni di servizio si sono visti assegnare degli ambiti territoriali mai richiesti e situati a centinaia di chilometri di distanza dalla propria città di residenza, mentre altri docenti, con minori titoli e minor anzianità di servizio, hanno ottenuto le sedi dagli stessi richieste”[26].

Nel dare continuità alla decisione il Consiglio di Stato ha, poi, decidendo su fattispecie analoghe, ulteriormente precisato la propria posizione: nella motivazione della pronuncia. Infatti, poi espressamente si estende[27] il favore verso l’utilizzo di software decisori anche a scelte a carattere “discrezionale”, e non soltanto a fattispecie vincolate, poiché entrambe espressione di attività autoritativa svolta nel perseguimento del pubblico interesse[28]. Anche attraverso l’esame della normativa europea, il Consiglio di Stato, fermi il necessario rispetto dei principi di trasparenza, conoscibilità, comprensibilità, per i soggetti coinvolti dall’attività amministrativa informatizzata in termini “istruttori e decisori” richiama, ancora, sotto il versante della verifica degli esiti e della relativa imputabilità, che debba essere anche garantita la verifica a valle, in termini di logicità e correttezza degli esiti[29]. In termini di imputabilità, poi, “anche al fine di applicare le norme generali e tradizionali in tema di imputabilità e responsabilità, occorre garantire la riferibilità della decisione finale all’autorità e all’organo competente in base alla legge attributiva del potere” (organo che dovrà potere esercitare il controllo sul procedimento e anche sugli esiti, determinandosi allora necessariamente una fattispecie che preveda un coinvolgimento umano che potrà anche distaccarsi dal risultato algoritmico).

Queste meditate riflessioni hanno ispirato la nuova disciplina del nuovo codice dei contratti pubblici[30], che all’art. 30 recita. “Art. 30. (Uso di procedure automatizzate nel ciclo di vita dei contratti pubblici): 1. Per migliorare l’efficienza le stazioni appaltanti e gli enti concedenti provvedono, ove possibile, ad automatizzare le proprie attività ricorrendo a soluzioni tecnologiche, ivi incluse l’intelligenza artificiale e le tecnologie di registri distribuiti, nel rispetto delle specifiche disposizioni in materia. 2. Nell’acquisto o sviluppo delle soluzioni di cui al comma 1 le stazioni appaltanti e gli enti concedenti: a) assicurano la disponibilità del codice sorgente, della relativa documentazione, nonché di ogni altro elemento utile a comprenderne le logiche di funzionamento;
b) introducono negli atti di indizione delle gare clausole volte ad assicurare le prestazioni di assistenza e manutenzione necessarie alla correzione degli errori e degli effetti indesiderati derivanti dall’automazione. 3. Le decisioni assunte mediante automazione rispettano i principi di: a) conoscibilità e comprensibilità, per cui ogni operatore economico ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino e, in tal caso, a ricevere informazioni significative sulla logica utilizzata;
b) non esclusività della decisione algoritmica, per cui comunque esiste nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatizzata;
c) non discriminazione algoritmica, per cui il titolare mette in atto misure tecniche e organizzative adeguate al fine di impedire effetti discriminatori nei confronti degli operatori economici. 4. Le stazioni appaltanti e gli enti concedenti adottano ogni misura tecnica e organizzativa atta a garantire che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori, nonché a impedire effetti discriminatori nei confronti di persone fisiche sulla base della nazionalità, dell’origine etnica, delle opinioni politiche, della religione, delle convinzioni personali, dell’appartenenza sindacale, dei caratteri somatici, dello status genetico, dello stato di salute, del genere o dell’orientamento sessuale. 5. Le pubbliche amministrazioni pubblicano sul sito istituzionale, nella sezione «Amministrazione trasparente», l’elenco delle soluzioni tecnologiche di cui al comma 1 utilizzate ai fini dello svolgimento della propria attività”[31].

Non sembrano, a prima vista, fissarsi paletti rigidi e limiti per l’uso dell’IA generativa (non solo la pura automazione), neanche per fattispecie connotate da discrezionalità. Ma immanente e pervasivo deve manifestarsi il controllo dell’uomo sui procedimenti e le decisioni assunte dalla IA, talché la regolazione di cui appunto all’art. 30 sembra ricalcare i canoni riservati dal Regolamento Europeo sull’intelligenza artificiale solo ai “sistemi ad alto rischio”, tra i quali è ricompresa la funzione giurisdizionale decisoria ma non anche, almeno de plano, quella amministrativa. (nell’attesa delle più puntuali definizioni che deriveranno dall’implementazione “regolatoria” della disciplina europea).

Si può in definitiva affermare come la disciplina Italiana, che pure permette ed anzi in alcuni casi promuove l’adozione di sistemi guidati dall’intelligenza artificiale, nella sottoposizione ad un pervasivo controllo umano, denoti in campo amministrativo una visione fortemente antropocentrica, che non è quindi patrimonio esclusivo della funzione giurisdizionale, e che si riverbererà anche sul successivo eventuale controllo giurisdizionale.

4.Concrete soluzioni per i problemi sul procedimento e la decisione “automatizzata” e sulla adozione di provvedimenti discrezionali

Così, dunque, il Consiglio di Stato; cosa ricavare, allora in via di ulteriore riflessione, da queste pronunce?

Il necessario rispetto dei principi del procedimento amministrativo, non formalmente in discussione, sembra tuttavia da “tarare” su un procedimento certo diverso, sicché le buone prassi riferite all’attività procedimentale “umana” dovranno essere riconsiderate; a me sembra, in realtà che la giurisprudenza apicale, in queste prime decisioni evidentemente “di principio”, voglia ancora tenersi “le mani libere”.

I meccanismi sia del procedimento che della decisione “automatizzata” vanno dunque ancora in larga parte precisati: ed è oggi forse già possibile riflettere senza ipocrisie o inutili giostre oratorie.

I “problemi” principali da affrontare io credo siano almeno quattro; come definire la partecipazione al procedimento amministrativo “informatizzato”, come sia possibile coniugare il superamento della logica umana, se e come superare il principio della “motivazione umana”, quando il procedimento e poi la decisione “appartengono” in grande misura al software (ferme certo le già indicate regole sulla necessaria attribuzione finale al funzionario “umano), e la eventuale delimitazione dei poteri discrezionali affidati alla decisione automatizzata.

E la esigenza di ripensamento va dunque adottata nel ricostruire le sufficienti e corrette modalità di partecipazione al procedimento istruttorio, che sembrerebbe allora doversi diversamente costruire tenuto conto dei limiti di intervento singolo sul software (quando le modalità di estrinsecazione al procedimento amministrativo in ipotesi di procedimenti e decisioni contrassegnate in toto da modalità telematiche e/o informatica non siano invece regolamentati ad hoc normativamente[32]).

Sul punto, con posizione ben più netta di quella desumibile dal Consiglio di Stato,  più decisamente in dottrina si aggiunge che “L’utilizzo degli strumenti di automazione decisionale, dal quale necessariamente discende una necessaria riduzione/concentrazione temporale delle fasi costitutive del procedimento amministrativo, non può infatti risolversi in una compressione delle garanzie partecipative riconosciute dalla legge a tutela delle posizioni giuridiche soggettive correlate all’esercizio del potere. In altri termini, ove il processo di informatizzazione amministrativa precludesse il godimento delle facoltà collaborative e conoscitive previste dalle norme sullo svolgimento della sequenza procedimentale, la gestione elettronica dei rapporti giuridici di diritto pubblico della potestà autoritativa. L’interlocuzione istruttoria con il responsabile del procedimento, la presentazione di memorie e documenti, l’accesso “partecipativo” e “difensivo” ai documenti amministrativi devono essere garantiti anche nell’ambito dei procedimenti gestiti mediante tecnologie informatiche tradizionali o “intelligenti”.[33]

In argomento, si richiama la felice affermazione: “la legalità procedurale viene a rappresentare un essenziale ‘… crisma di legittimazione del potere autoritativo della pubblica amministrazione’”.[34]

Anche in questo caso, tuttavia, interpretare così la necessaria partecipazione al procedimento nella decisione algoritmica potrebbe comprimere le possibilità di utilizzo del software in più campi, una soluzione certo adottabile, ma che allo stato non pare in sintonia appunto con le indicazioni espresse o comunque desumibili dalle decisioni del Consiglio di Stato.

Sul procedimento automatizzato, appare in via generale, allo stato dell’arte, che la partecipazione che si può garantire con il procedimento informatico, una volta determinati i dati di input e i “pesi” eventuali da attribuire ai vari elementi dell’algoritmo appare non comparabile con il livello di partecipazione che si può garantire in un procedimento interamente retto da un funzionario umano; e anche la supervisione, che abbiamo già ricordato oggi (ancora?) indispensabile del funzionario non offre  analoga partecipazione.

Rimane, però, la necessità di garantire, e riterrei fin da subito, già nella fase introduttiva e istruttoria, e non solo al termine dopo la comunicazione del provvedimento finale, la piena conoscenza della scelta e delle ragioni per le quali si è scelto di procedere con una procedura informatizzata[35], la scelta degli input da inserite, dei soggetti cui affidare il compito di procedere tecnologicamente, di garantire la piena conoscenza ed il pieno esame di tutta la procedura algoritmica, dalla determinazione dei dati introdotti al controllo degli stessi, all’esame per comprendere se i dati siano o no esatti e completi, al controllo su chi li abbia determinati, alla  piena conoscenza delle regole e degli algoritmi alla base del programma, della scelta del programma, della verifica dell’inesistenza di profili discriminatori.

La necessaria presenza in funzione quantomeno di supervisione di un funzionario “umano” dovrà essere coniugata nel senso di consentire piena trasparenza del meccanismo e nel valutare la possibilità di consentire che un tempestivo intervento dell’interessato possa consentire anche una modifica dell’algoritmo o di alcuni input o elementi dello stesso programma (i singoli “pesi” per ogni interesse, ad esempio); così da consentire nella fase introduttiva e di istruzione un possibile ripensamento sulla stessa adozione della procedura informatizzata, o comunque in tesi anche miglioramento del risultato finale attraverso una correzione opportuna dei diversi elementi.

Infine, se questo basti o no, è lecito talora dubitare.

Se, come ora scritto, la partecipazione al procedimento nella fase introduttiva ed istruttoria è elemento fondamentale a legittimare democraticamente l’esercizio di poteri autoritativi, e se oggi ancora in concreto il procedimento “umanizzato” garantisce maggiormente il rispetto di questi valori piuttosto che il procedimento “automatizzato”; ciò significa che sarà necessario motivare esaustivamente e già al momento della scelta (non a posteriori con la comunicazione della decisione finale),  le ragioni che inducono a preferire per il caso di specie l’adozione di una procedura “automatizzata[36].

Riflettiamo adesso sul provvedimento finale, adottato nelle forme informatiche già evidenziate con la necessaria attribuzione ad un funzionario “umano”.

In argomento, mi sembra tuttavia che il principio di motivazione e giustificazione della decisione acquisisca una diversa lettura, laddove nel provvedimento informatico il Consiglio di Stato  sembra riferirsi al rispetto del richiamato fondamentale principio della “trasparenza” dello strumento informatico, ma non più spinto fino alla necessità di una giustificazione necessariamente autonoma del funzionario “uomo”; certo, così, il principio di giustificazione e motivazione del provvedimento amministrativo acquisisce un significato che mi appare appunto nuovo, almeno nelle ipotesi in cui il risultato sia ricavato attraverso il meccanismo del deep learning, che segue una logica che può anche essere diversa dalla logica umana, ma che evidentemente viene ritenuta comunque capace di fondare la decisione.

Si tratta, allora, di riflettere sia sulla “motivazione del computer,” che sulla “motivazione del supervisore”, il funzionario umano.

Quanto alla “motivazione” del computer, bisogna capire se in primo luogo il programma informatico debba avere una “motivazione” informatica, ed i contenuti di questa.

Certamente, come richiesto dal Consiglio di Stato, “i software utilizzati dalla Pubblica Amministrazione devono consentire la trasposizione in termini giuridici delle prescrizioni formulate in linguaggio computazionale, in modo che siano assicurate la conoscibilità e la comprensibilità dello schema logico di funzionamento del programma informatico”[37].

Chiarezza e trasparenza, non motivazione.

Sempre in termini di motivazione della “macchina”, si potrebbe pensare a qualcosa di più; lavorando sui concetti della Explanable artificial intelligence, così da fornire migliori modelli comunicativi informatici[38]

E, poi, anche ad un diverso ed ulteriore controllo che può essere chiesto al computer, che dovrebbe semplicemente adottare ed utilizzare ulteriori algoritmi, ovvero la valutazione della “sostenibilità” o no di alcune decisioni prese secondo ad esempio una logica diversa, magari una logica “umana”; e, poi, grazie agli ulteriori algoritmi che consentono la XAI, procedere anche ad offrire questa ulteriore chiave di lettura e conoscenza. Una ipotetica soluzione che, proprio in campo giuridico, potrebbe condurre ad un necessario controllo sulla base delle leggi vigenti proprio in questo modo.

In secondo luogo; analizzato contenuti e limiti della motivazione del “software”, si tratterà poi di definire quale sia il compito del funzionario umano che, si è già ricordato, sovraintende e si attribuisce il provvedimento.

Se debba motivare la sua decisione, così da attribuirsela consapevolmente attraverso un ragionamento umano (che tuttavia sarà presumibilmente talora diverso dall’adozione del deep learning[39]); o se debba lsolo limitarsi a dare atto di un controllo della procedura attuata dal software (rispondendo anche ed in particolare  alle eventuali osservazioni dei controinteressati),  dovendo essere in primo luogo in possesso delle necessarie competenze tecniche e motivando necessariamente comunque tanto la scelta al termine del percorso di recepire l’input della macchina allo stesso modo della scelta di discostarsene.

Rimane poi comunque, io credo, ulteriormente quantomeno la necessità per il funzionario di svolgere un ulteriore controllo “umano” sul risultato del software, sull’output, perché ritengo debba comunque, come “chiusura del sistema”, assegnarsi oggi al funzionario l’onere di valutare se i risultati della decisione automatizzata non siano empiricamente illogici o inaccettabili, tanto da condurre ad una diversa decisione con giustificazione e motivazione tradizionale.

Certo è, però, che anche in questo caso la motivazione appare ontologicamente diversa da come la si è sin qui ricostruita: si può acquisire un risultato ed esplicitarne le ragioni, ma (non più) spiegare come a questo (preliminare passaggio) si è pervenuti.

Un ulteriore riflessione va poi io credo riservata alla decisa apertura del Consiglio di Stato all’uso dell’algoritmo nell’adozione di provvedimento “discrezionale” da parte della pubblica amministrazione. Il Supremo Collegio in maniera tranchant equipara l’attività discrezionale a quella vincolata nell’indispensabile apertura ai nuovi strumenti. Però, certo, affidare ad un software un’attività riservata ad una valutazione umana, specie se il software potesse espandere al massimo le proprie capacità attraverso il deep learning, processi ovvero in cui la macchina si allontana (per la più parte, proficuamente), dalla logica umana, si palesa scelta che forse meriterebbe una più sofferta riflessione. In argomento, certo, soccorre la già richiamata esigenza di piena trasparenza e la figura del funzionario umana quantomeno se non in un autonomo esame che conduca ad una valutazione “umana” e di sostegno nell’analisi empirica del risultato (specie se sollecitato da partecipanti o eventuali interessati). Come forse sarebbe allo stato non previsto ma forse già prevedibile che il software non si limiti a fornire una sola risposta, ma offra quando possibile un ventaglio di soluzioni adottabili, indicando quelle secondo il suo “ragionamento” preferibili, ma data la natura discrezionale affidando al funzionario umano la decisione, che potrebbe distaccarsi motivatamente dai suggerimenti computazionali.

Una ulteriore soluzione da valutare, che circoscrive decisamente lo spazio assegnato alla “discrezionalità del computer” è oggi proposta in via dottrinaria da chi sostiene che “Se infatti il contenuto di tali decisioni viene determinato mediante l’utilizzo di algoritmi che sostituiscono l’attività umana, ciò non significa che tali processi decisionali siano espressione di un potere vincolato e non discrezionale. In realtà, come si dirà in dettaglio più avanti, se la decisione concreta rispetto ad un caso singolo (o meglio ai molti casi singoli) sarà determinata in via automatica dall’applicazione dell’algoritmo, la regola di giudizio o il criterio di decisione che nell’algoritmo (e dall’algoritmo) è posto è al contrario decisione tipicamente umana ed espressione di una scelta propriamente politica, o meglio discrezionale, frutto della ponderazione (id est attribuzione di un peso) maggiore o minore in relazione ad una pluralità di elementi di fatto. Quegli elementi di fatto cui grazie all’algoritmo verrà attribuito un “peso” predeterminato che consentirà l’assunzione di una decisione automatizzata. La definizione dell’algoritmo quindi come momento di determinazione in via preventiva ed astratta del peso da attribuirsi a diversi fatti ed interessi è una attività tipicamente umana, esercizio solo anticipato della scelta discrezionale, come da tempo si è avuto modo di ricostruire una nuova modalità di predeterminazione delle decisioni amministrative generali. La regola tecnica che governa ciascun algoritmo, in altri termini, resta pur sempre una regola amministrativa generale, costruita dall’uomo e non dalla macchina, per essere poi (solo) applicata

 da quest’ultima, anche se ciò avviene in via esclusiva, assolve la stessa funzione che ab antiquo nel nostro diritto amministrativo assolvevano (ed ancor oggi in molti casi assolvono) gli atti amministrativi generali”. In questo modo, dunque, la discrezionalità verrebbe comunque affidata integralmente ad una valutazione “umana” (desumibile se non direttamente dalla legge, da una valutazione comunque umana da inserire come base per la determinazione dei “pesi” dei singoli dati nella costruzione dell’algoritmo).

Questa soluzione che pur sempre sacrifica le specifiche del caso concreto, in buona sostanza, “imbriglia” il software nella definizione dell’algoritmo: i “pesi” dei vari interessi in gioco saranno comunque rigidamente predeterminati dall’uomo. O dal legislatore, laddove l’attività sia vincolata o in via generale dal funzionario nella “taratura” dei dati e dei pesi. Il computer, quindi, sarà chiamato comunque a volgere un’attività pur sempre aliunde predefinita, e solo all’interno di questa ricostruzione potrà utilizzare le sue superiori capacità (il deep learning). Di ciò, tuttavia, nulla ancora esprime il Consiglio di Stato. E, forse, questo utilizzo, tranquillizzante per alcuni versi, sconta il limite di un’adozione non piena delle peculiari capacità cognitive del computer, che potrebbero invece rivelarsi assai importanti per garantire le migliori decisioni per alcuni procedimenti amministrativi.

Sono, peraltro, possibili anche soluzioni alternative a quelle proposte o adottate.

Come già accennato, si tratta, forse, di accettare che un procedimento e provvedimento “umano”, con annessa motivazione, allo stato dell’arte, garantisce  maggiormente la piena partecipazione degli interessati rispetto a quanto sia oggettivamente possibile con una decisione “automatizzata”; e, pertanto, forse, si potrebbe più in generale pensare, che anche la semplice scelta di adottare un software piuttosto che un provvedimento umano munito di umana motivazione dopo un procedimento avanti ad un funzionario rappresenta una scelta anche gravida di conseguenze sulla decisione finale.

Potremmo così ritenere che la oggettiva compressione della garanzia del procedimento partecipato e della motivazione umana possa allo stato essere superata con la scelta di una decisione “automatizzata” solo quando ci siano ragioni (ad esempio enorme numero di partecipanti etc.) che la giustificano, e non ad libitum. E che anche questa decisione debba essere esplicitata e motivata a monte, e che residui un margine di controllo (e di contestazione) da parte degli interessati anche sotto questo profilo.

 

5.Il controllo giudiziale avverso il provvedimento amministrativo digitale

 

Questa lettura, correttamente, si riverbera sulla sindacabilità, poi, dell’amministrazione digitale da parte della giurisdizione amministrativa[40], cui va assicurata una sindacabilità incisiva: “come osservato da Consiglio di Stato “solo in questo modo è possibile svolgere, anche in sede giurisdizionale, una valutazione piena della legittimità della decisione; valutazione che, anche se si è al cospetto di una scelta assunta attraverso una procedura informatica, non può che essere effettiva e di portata analoga a quella che il giudice esercita sull’esercizio del potere con modalità tradizionali (par. 8.4). La Sezione VI ha inoltre precisato che il sindacato del giudice amministrativo concerne, in una prima fase, la correttezza delle attività che connotano il processo di automazione, a loro volta costituite non soltanto dalla costruzione dell’algoritmo, ma anche dall’acquisizione, dalla validazione e dalla gestione dei dati; in una seconda fase, la legittimità del provvedimento adottato dal software in esecuzione delle prescrizioni algoritmiche……[41][…].

 

Ritengo, ancora, che al giudice competa anche il controllo di esistenza e ragionevolezza sulla necessaria motivazione che io credo debba accompagnare la scelta del funzionario di affidare la procedura all’amministrazione digitale piuttosto che ad un più classico svolgimento del procedimento e provvedimento amministrativo[42].

E rimangono ancora all’interno del perimetro di controllo affidato poi al giudice amministrativo anche le scelte maturate dalla Pubblica Amministrazione sul programma da adottare (quando siano possibili più soluzioni), che dovrà avvenire nel rispetto della legge e sotto l’ulteriore profilo del controllo del vizio di sviamento  o eccesso di potere[43]; come, ancora, sarà compito del giudice amministrativo verificare il rispetto della lettera e dello spirito della legge che pretende che il funzionario umano preposto al controllo sia in grado capire (anche a livello di sufficiente preparazione personale in tema) e quindi nella concreta possibilità di esercitare un controllo[44], e che motivi tanto la scelta al termine del percorso di recepire l’input della macchina allo stesso modo della scelta di discostarsene.

Il controllo giudiziale del potere amministrativo, quando l’amministrazione sia “digitale”, si rileva allora come un elemento non bypassabile, ma anzi assolutamente fondamentale ed indispensabile proprio per permettere l’adozione di queste tecnologie. Allo stato, l’automazione più o meno totale non preclude dunque al controllo giudiziale (la piena giustiziabilità del processo decisionale automatizzato), ma al contrario ne esalta il compito ultimo di esame; compito che ritengo dovrà essere esteso fino al finale controllo empirico dei risultati ricavati dall’algoritmo, con la necessità di un provvedimento demolitorio quando l’esito sia, pur nel rispetto dei criteri algoritmici, predeterminati o dalla stessa macchina “acquisiti”, concretamente illogico.

È vero che i meccanismi algoritmici tendono a presentarsi come apparati neutrali, e pertanto, allo stesso modo sembra potersi percepire l’Amministrazione che proceda adottando queste regole, che si presenta quasi essa stessa soggetta ad un calcolo, come tale dotato di criteri oggettivi, quasi avalutativi. Ma questa opinione potrebbe ben rivelarsi fallace: “Il margine discrezionale è sempre presente dietro ogni atto di rilevazione, classificazione e organizzazione. È neutrale l’inferenza, ma non l’assunzione dei dati e l’organizzazione dei processi inferenziali”[45].

Proprio attraverso il controllo giurisdizionale, quindi, si evita il rischio che la decisione automatizzata in sede amministrativa possa essere adottata strumentalmente proprio per ridurre il controllo sull’esercizio del potere esercitato dalla Pubblica Amministrazione

E  si è a ragione notata l’esigenza di sapere chi (specie quando quest’attività sia svolta da informatici “privati”) introduca i concreto i dati (input), ma soprattutto strumenti che consentano di controllare per cogliere eventuali bias cognitivi che pregiudicano la soluzione finale (output), sicché “in una logica di moderna accountability occorre che il relativo uso sia accompagnato da un principio di spiegazione più consistente rispetto al procedimento governato da esseri umani”[46]; sotto certi profili, anzi, si potrebbe ritenere che combattere l’esistenza di bias sia assai più semplice versus una decisione automatizzata, in cui almeno in alcuni casi si può avere una idea degli elementi di conoscenza che la macchina ha, rispetto all’analogo controllo operato su un agente umano, il cui esame è meno oggettivo e gli eventuali pregiudizi del giudice umano più difficili da rilevare.

Il necessario rispetto della disciplina normativa introdotta dal regolamento Ue 2024 in diretto rapporto all’azione amministrativa (in materia organizzativa ecc..), insieme all’art. 30 del codice dei contratti pubblici ampliano decisamente il perimetro del controllo per violazione di legge, nonché i profili dell’eccesso di potere.

La decisione giurisdizionale, pertanto, non deve mai ridurre il controllo sull’esercizio del potere.

Al tempo stesso, tuttavia, appare altrettanto opportuno, credo, chiarire come anche il controllo giustamente capillare ed invasivo dell’autorità giurisdizionale nei confronti della decisione amministrativa “automatizzata”, non deve però indurre a ritenere che i rapporti tra i poteri siano in qualche modo cambiati[47]; ciò vale, in particolare, quando la decisione amministrativa automatizzata sia stata resa in un contesto nel quale si sono applicati profili di discrezionalità; l’esame del giudice amministrativo, se non gli sia attribuita la giurisdizione di merito, rimane sempre limitato alla verifica della legittimità del provvedimento attraverso l’assenza dei vizi di eccesso o sviamento di potere, e quindi alla verifica che la scelta adottata dalla amministrazione stia tra le “alternative” possibili, senza che l’esame rivolto alla decisione automatizzata induca erroneamente il giudice a ritenere di estendere la sua tutela oltre i limiti individuati dall’ordinamento, che non sono affatto messi in discussione dalla diversa forma decisionale (il riferimento è ai consueti limiti della giurisdizione riferiti alla invasione o sconfinamento nella sfera amministrativa) .

Rimarrebbe, infine, da analizzare anche il controllo del potere giudiziale sotto altro affascinante ed inquietante profilo; ovvero, la decisione giudiziale “automatizzata”, tema che, nel caso che ci occupa, potrebbe condurci anche a riflessioni su una tematica affatto particolare, nel caso in cui al giudice “robot” sia richiesto un controllo su una decisione amministrativa “automatizzata”[48].

E, tuttavia, per rispondere a questo interrogativo, va prima affrontato il tema della decisione robotica in via giudiziale, che tanto oggi occupa le riflessioni in ambito giuridico; e questo non è tema di queste mie brevi riflessioni

[1] Neri, Diritto amministrativo e intelligenza artificiale: un amore possibile. In Urbanistica e Appalti, 2021, fascicolo 5, p. 581 e segg

[2] Neri, op. cit.

[3] Neri , op. cit

[4] Neri, op. cit.,

[5] Police, Scelta discrezionale e decisione algoritmica, in Il diritto nell’era digitale – persona, mercato, amministrazione, giustizia, a cura di R. Giordano A. Panzarola A. Police S. Preziosi M Proto, Milano, Giuffre, 486 ss.

[6] Questa predeterminazione, in via generale, potrebbe poi condurre a ridurre i rischi di soluzioni fondate sull’analisi fondate su ragioni particolari dettate dalla forza di alcuni soggetti nel loro caso di specie, che sarebbe ridotta da una prevalutazione con criteri generali

[7]Brighi, Informatica forense, algoritmi e garanzie processuali, in Ars interpretandi, 2021, 162.

[8] Messinetti, op.cit., 886 ss.; Zaccaria, Mutazioni del diritto: innovazioni tecnologiche e applicazioni predittive, in Ars Interpretandi 2021, 36.

[9] La riflessione, peraltro, implica di interrogarsi circa la natura giuridica (o meno) dell’algoritmo. Per la soluzione contraria, ma anche per un’analisi della letteratura al riguardo, si veda A.G. Orofino, G. Gallone, L’intelligenza artificiale al servizio delle funzioni amministrative: profili problematici e spunti di riflessione, in Giurisprudenza italiana, 2020, 1738 ss., in particolare 1744 ss.

[10] Per un’analisi riferita all’uso dell’intelligenza artificiale nell’ambito del potere discrezionale della pubblica amministrazione cfr. N. Paolantonio, Il potere discrezionale della pubblica automazione. Sconcerto e stilemi. (Sul controllo giudiziario delle “decisioni algoritmiche”), in Diritto amministrativo, 2021, 813 ss., dove anche per riferimenti dottrinari ulteriori.

[11] Ad esempio, si potrebbe pensare anche ad un diverso ed ulteriore controllo che può essere chiesto al computer, che dovrebbe semplicemente adottare ed utilizzare ulteriori algoritmi, ovvero la valutazione della “sostenibilità” o no di alcune decisioni prese secondo ad esempio una logica diversa, magari una logica “umana; e, poi, grazie agli ulteriori algoritmi che consentono la XAI, procedere anche ad offrire questa ulteriore chiave di lettura e conoscenza. Una ipotetica soluzione che, proprio in campo giuridico, potrebbe condurre ad un necessario controllo sulla base delle leggi vigenti proprio in questo modo; ma di ciò, dopo.

[12] In tema Gallone, Riserva di umanità, intelligenza artificiale e funzione giurisdizionale alla luce dell?IA Act. Considerazioni (e qualche proposta) attorno al processo amministrativo che verrà, in Judicium.it , 2024.

[13] Messinetti, La tutela della persona umana versus l’intelligenza artificiale. Potere decisionale dell’apparato tecnologico e diritto alla spiegazione della decisione automatizzata, in contr. e impr., 2019, 861 ss.

[14] Non credo, infatti, sia casuale come il Consiglio di Stato, nel motivare l’adesione all’apertura pur condizionata alle procedure algoritmiche, nella motivazione delle decisioni in argomento faccia fondamentalmente riferimento alla normativa europea sul regolamento europeo sulla protezione dei dati personali, e alle ulteriori evoluzioni, talora ancora in fieri, ricavate dai documenti e dalla normativa europea in tema. La letteratura ha sviluppato un concetto di trasparenza che prescinde e supera la mera conoscibilità del dato informatico, in ambito europeo puntualmente basandosi sulla disciplina del GDPR. Cfr. per tutti M.E. Kaminski, G. Malgieri, Algorithmic impact assessments under the GDPR: producing multi-layered explanations, in International Data Privacy Law, 2021, 125 ss.

[15] Così Tar Lazio Roma 10 settembre 2018, n. 9224. ; Tar Lazio 27 maggio 2019 n. 6607.

[16] Con la sentenza Cons. Stato 8 aprile 2019, n. 2270, il Consiglio di Stato ha pronunciato proprio sull’algoritmo della cd. “buona scuola”, accogliendo il ricorso dei docenti. Premesso come “non può essere messo in discussione che un più elevato livello di digitalizzazione dell’amministrazione pubblica sia fondamentale per migliorare la qualità dei servizi resi ai cittadini ed agli utenti”, il Consiglio ritiene che l’algoritmo, ovvero il software, debba essere considerato come un atto amministrativo informatico; Consiglio di Stato 13 dicembre 2019 n. 8472 afferma come”11. Né vi sono ragioni di principio, ovvero concrete, per limitare l’utilizzo all’attività amministrativa vincolata piuttosto che discrezionale, entrambe espressione di attività autoritativa svolta nel pubblico interesse. In disparte la stessa sostenibilità a monte dell’attualità di tale distinzione…..; Consiglio di Stato 4 febbraio 2020 n. 881 laddove si afferma che “tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale dei dati selezionati come rilevanti. Ciò al fine di poter verificare che i criteri, i presupposti e gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato. In proposito, va ribadito che, la “caratterizzazione multidisciplinare” dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile. Con le già individuate conseguenze in termini di conoscenza e di sindacabilità”.

[17] V. al par. 5.

[18] Pesce, Intelligenza artificiale, procedimento e soluzione dei conflitti tra interessi, in Il diritto nell’era digitale – Persona, Mercato, Amministrazione, Giustizia, a cura di R. Giordano, A. Panzarola, A. Police S. Preziosi, M. Proto, Milano, Giuffrè,999.

[19] Neri, op. cit, avverte come…… “dei principi di trasparenza, pubblicità, proporzionalità e ragionevolezza che presiedono all’esercizio delle funzioni pubbliche. Proprio in ragione della natura provvedimentale dell’algoritmo, la Sezione VI ha statuito che i software utilizzati dalla Pubblica Amministrazione devono consentire la trasposizione in termini giuridici delle prescrizioni formulate in linguaggio computazionale, in odo che siano assicurate la conoscibilità e la comprensibilità dello schema logico di funzionamento del programma informatico. […]. Solo in questo modo è possibile svolgere, anche in sede giurisdizionale, una valutazione piena della legittimità della decisione; valutazione che, anche se si è al cospetto di una scelta assunta attraverso una procedura informatica, non può che essere effettiva e di portata analoga a quella che il giudice esercita sull’esercizio del potere con modalità tradizionali (par. 8.4). La Sezione VI ha inoltre precisato che il sindacato del giudice amministrativo concerne, in una prima fase, la correttezza delle attività che connotano il processo di automazione, a loro volta costituite non soltanto dalla costruzione dell’algoritmo, ma anche dall’acquisizione, dalla validazione e dalla gestione dei dati; in una seconda fase, la legittimità del provvedimento adottato dal software in esecuzione delle prescrizioni algoritmiche……[…]L’utilizzo degli strumenti di automazione decisionale, dal quale necessariamente discende una necessaria riduzione/concentrazione temporale delle fasi costitutive del procedimento amministrativo, non può infatti risolversi in una compressione delle garanzie partecipative riconosciute dalla legge a tutela delle posizioni giuridiche soggettive correlate all’esercizio del potere. In altri termini, ove il processo di informatizzazione amministrativa precludesse il godimento delle facoltà collaborative e conoscitive previste dalle norme sullo svolgimento della sequenza procedimentale, la gestione elettronica dei rapporti giuridici di diritto pubblico della potestà autoritativa. L’interlocuzione istruttoria con il responsabile del procedimento, la presentazione di memorie e documenti, l’accesso “partecipativo” e “difensivo” ai documenti amministrativi devono essere garantiti anche nell’ambito dei procedimenti gestiti mediante tecnologie informatiche tradizionali o “intelligenti”. Come rilevato dalla dottrina “la legalità procedurale viene a rappresentare un essenziale ‘… crisma di legittimazione del potere autoritativo della pubblica amministrazione’”.

[20] C.d.S., 13 dicembre 2019 n. 8972 “..in senso contrario non può assumere rilievo l’invocata riservatezza delle imprese produttrici dei meccanismi informatici utilizzati i quali, ponendo al servizio del potere autoritativo tali strumenti, all’evidenza ne accettano le relative conseguenze in termini di necessaria trasparenza”.

[21]Amato, Emozioni sintetiche e sortilegi al silicio, in Ars Interpretandi, 2021, 147, riferisce del ritiro nel Regno Unito dell’algoritmo usato per stabilire il voto all’esame di maturità del 2020, perché ritenuto discriminatorio.

[22] E tuttavia, in argomento, v. anche Consiglio di Stato ord. 15 ottobre 2024 n.8278, per la rimessione alla Corte di Giustizia UE sulla necessità di valutare se il conflitto tra il diritto alla tutela giurisdizionale e il diritto alla tutela dei segreti commerciali possa risolversi de plano con la prevalenza del primo (anche in ipotesi di possibile uso emulativo del diritto di accesso alla offerta tecnica del ricorrente), o non sia invece necessario procedere ad un diverso bilanciamento degli interessi nei casi di specie alla luce della tutela del segreto tecnico o commerciale previso dalla normativa Unionale.

[23] Su tutti questi aspetti si veda adesso il regolamento europeo sull’intelligenza artificiale (EU Artificial Intelligence Act) nella sua ultima versione del 21 gennaio 2024, dove appunto per l’implementazione espressa dei principi di trasparenza e del controllo umano (cfr., tra gli altri, gli articoli 13 e 14).

[24] Già l’art. 22 del Regolamento sulla protezione dei dati personali (GDPR) sanciva il divieto di sottoporre l’individuo a processi decisionali meramente automatizzati. E, però, già l’art. 23 permette la limitazione del diritto quando la limitazione rispetti i diritti e le libertà fondamentali e sia una misura proporzionata per salvaguardare una ampia serie di interessi pubblici, che ricomprende un ambito quasi coincidente con i compiti della P:A: Rimarrebbe, comunque, il disposto del considerando 71 del Regolamento che tende, pur in presenza di automatizzazione, “la subordinazione a garanzie adeguate, che dovrebbero comprendere la specifica informazione all’interessato e il diritto di ottenere l’intervento umano, di esprimere la propria opinione, di ottenere una spiegazione della decisione conseguita dopo tale valutazione e di contestare la decisione”. In argomento, Galletta-Corvalan, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto, in Federelasmi.it, 2019, f. 3, par. 5, 15 ss.

[25] PESCE, op. cit., 1005 ss.

[26] C.d.S. 8 aprile 2019 n. 2270.

[27] C.d.S. 13 dicembre 2019 n. 8472; C.d.S. 4 febbraio 2020 n. 881.

[28]In tema, è assai interessante riportare la meditata posizione di Police, op. cit., 487. L’autore non prevede e dunque non prende posizione sull’ammissibilità o no di un software costruito in modo tale per cui i “pesi” predeterminati dall’operatore umano siano lasciati in tutto o in parte alla indeterminatezza ed alla scelta del software.

[29] Da ultimo cfr. Consiglio di Stato, 28 aprile 2023, n. 4297, dove si afferma che “il ricorso a strumenti informatici nelle procedure amministrative costituisce una modalità agevolata di istruttoria, senza che il singolo strumento – per quanto qualificabile in termini di intelligenza artificiale – possa, da un lato, derogare alle regole normative ed ai criteri posti a presupposto della singola procedura, e dall’altro lato, essere sottratto alla trasparenza nonché alla imputabilità all’amministrazione procedente. Quest’ultima è chiamata a verificare la correttezza del funzionamento dello strumento istruttorio utilizzato e la relativa coerenza agli obiettivi ed alle regole dettate, in coerenza al principio di legalità, per l’esercizio del potere in esame”

[30] D. lgs 31 marzo 2023 n.36.

[31] In tema, Licata, Intelligenza artificiale e contratti pubblici: problemi e prospettive, in Rivista Interdisciplinare Sul

Diritto Delle Amministrazioni Pubbliche, 2024, 2, 30 ss.

[32] C.d.S. 4 maggio 2020,  n. 3083

[33] Neri, op. cit.,   ; M.C. Cavallaro–G. Smorto, Decisione pubblica e responsabilità dell’amministrazione nella società dell’algoritmo, in Federalismi.it, 2019, 18-19, sul sito www.federalismi.it.

[34] D. U. Galetta – J. G. Corvalàn, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità rischi e sfide della rivoluzione tecnologica in atto, in Federalismi.it, 17, sul sito www.federalismi.it.

[35] Per le ragioni di cui alla fine del paragrafo.

[36] Tutto va naturalmente parametrato alla luce della disciplina normativa. L’art. 19 comma 7s.gls 36/2023, codice dei contratti pubblici, ad esempio, prevede, laddove possibile, che le stazioni appaltanti debbano fare affidamento su procedure automatizzate nella valutazione delle offerte, riservando altre procedure solo a ipotesi allora eccezionali e che dovranno essere debitamente motivate.

[37] V. al par. 3

[38] V. al par. 2

[39] V. al par. 2

[40] In tema, Gallone, Riserva di umanità, intelligenza artificiale e funzione giurisdizionale alla luce dell’IA Act. Considerazioni (e qualche proposta) attorno al processo che verrà, Judicium.it, 2024, con considerazioni assai interessanti sull’uso dell’intelligenza artificiale da parte del giudice amministrativo.

In argomento, non tutti i sistemi di IA in materia giurisdizionale (All.3 par.8) vanno però considerati sistemi ad altro rischio; v. ad esempio il considerando 53 del Regolamento UE (anche art. 6 par.3), così anche il considerando 61che classifica come sistemi ad alto rischio i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie che producono effetti giuridici per le parti, ma non le attività puramente accessorie

[41] Così Neri, v. retro al par. 3

[42] Quando naturalmente la disposizione legislativa non preveda all’opposto espressamente una preferenza per una gestione automatizzata, come ad es. art. 19 comma 7.

[43] Anche per tali ragioni appaiono convincenti gli spunti interpretativi che suggeriscono al legislatore di provvedere in modo tale che l’utilizzo di programmi di intelligenza artificiale da parte del giudice (ad esempio, la formulazione di un quesito di diritto rivolto alla macchina) debba essere comunicato alle parti e confluire nel processo consentendo il contraddittorio sul risultato. Gallone, op. cit.

[44] In certo modo, v. per spunti l’art. 14 par.4 del regolamento Europeo del 2024.

[45]Amato, Emozioni sintetiche e algoritmi al silicio cit., 132.

[46] Pesce, op. cit., 1002.

[47]Patroni Griffi, La decisione robotica e il giudice amministrativo, La decisione robotica a cura di A. Carleo, Bologna, 2019, 169.

[48] Il tema, tuttavia, almeno in ambito Comunitario, dovrebbe essere affrontato alla luce del Regolamento europeo in tema di intelligenza artificiale del luglio 2024, che per quanto attiene alla funzione giurisdizionale ha dato consacrazione alla “riserva di umanità” per il giudice.