Riserva di umanità, intelligenza artificiale e funzione giurisdizionale alla luce dell’IA Act. Considerazioni (e qualche proposta) attorno al processo amministrativo che verrà

Di Giovanni Gallone -

Sommario: 1. Persona e processo nel modello costituzionale e sovranazionale. – 2. I più recenti sviluppi ordinamentali e l’emersione, con l’IA Act, di una “riserva di umanità” anche nel processo. – 3. Alla ricerca di una veste giuridica processuale per l’algoritmo. – 4. Le nuove sfide del processo che verrà: il rapporto tra persona ed algoritmo ed il pericolo di un automation bias. – 5. Uno sguardo al futuro prossimo: verso un giudizio ad umanità “aumentata”.

1. Persona e processo nel modello costituzionale e sovranazionale

L’impetuoso sviluppo della tecnica e, in particolare, della scienza informatica, ha posto i giuristi dinanzi ad interrogativi inediti che solo qualche decennio fa sarebbero stati liquidati come il frutto di un divertissment fantascientifico[1].

È possibile affidare in tutto lo svolgimento della funzione giurisdizionale ad un software?  È possibile concepire un processo che non veda come protagonisti (nel ruolo di giudice ed avvocati) degli esseri umani? Il processo può risolversi in una operazione informatica integralmente automatizzata? E se ciò non è consentito, che ruolo deve rivestire la persona umana nel processo? Quale il suo rapporto con il software?

Non sembra, invero, si possa seriamente dubitare che l’impiego dell’Intelligenza Artificiale, oramai percepito tanto dalla politica quanto dagli operatori del diritto come una sorta di orizzonte escatologico per la giurisdizione, costituirà uno snodo essenziale nell’evoluzione storica della forma giuridica che chiamiamo “processo”.

Il digitale è, invero, entrato da tempo in quel recinto sacro[2] ma, rispetto a quanto finora accaduto, la dirompente portata della tecnologia non investirà più, come un accidente, solo profili estrinseci di rito, ma potrà condizionarne, in qualche misura, anche sostanza ed essenza[3]. Ciò in quanto, almeno nelle sue applicazioni più pregnanti (e di maggiore interesse)[4], essa andrà ad incidere sul momento decisorio, quello in cui si coagula unico actu la dimensione dinamica e di garanzia del giudizio.

Stiamo, quindi, vivendo tempi molto interessanti per i processualisti di ogni settore[5]. Tempi che non possono essere vissuti con distacco (e disincanto[6]) ma che richiedono un rinnovato impegno intellettuale dovendosi scongiurare il rischio che questa fase di delicata transizione sia affidata unicamente alla tecnica[7].

I tecnici, infatti, mancano spesso di un portato che è insito nella cultura e formazione del giurista e che risulta ammantato di una sua sacralità: il senso, propriamente giuridico, del “limite”[8], di un confine che è “invalicabile” in forza una scelta di valori compiuta ex ante.

Coltivare criticamente questo senso equivale a chiedersi fino a che punto potrà spingersi l’automazione della funzione giurisdizionale e, quindi, di riflesso, interrogarsi, al fondo, sul processo che “verrà” e, soprattutto, sul processo che “vogliamo”.

Si tratta, a ben vedere, di una delle innumerevoli, possibili, declinazioni specifiche del tema del rapporto tra uomo e macchina, della dialettica tra soggetto e oggetto, tra io e non-io. Un tema, questo, gravido di implicazioni etiche, da affrontare in una prospettiva necessariamente storica sospingendo l’interprete verso i lidi del meta-giuridico[9].

Il pensiero filosofico più recente, pur nella diversità delle impostazioni, condivide, infatti, per sua larga parte, il timore che il genere umano possa rendere superfluo sé stesso[10]. Ciò ha risvegliato l’esigenza di un approccio antropocentrico al futuro che inauguri una nuova stagione di “umanesimo digitale”[11].

Tanto esclude, in ogni campo, che la macchina possa assumere un rilievo diverso da quello di mero instrumentum al servizio dell’uomo dovendo essa, piuttosto, assolvere ad una funzione “servente debole”, di supporto e non sostitutiva dell’umanità[12].

La centralità della persona deve essere, in particolare, preservata, con riguardo al momento dell’assunzione della decisione. Quest’ultima deve rimanere nella disponibilità dell’individuo persona fisica secondo un principio di “autonomia”, con ciò intendendo il potere di questi di “decidere di decidere”, alla ricerca di un “punto di equilibrio tra il potere decisionale che ci riserviamo e quello che deleghiamo agli agenti artificiali”[13].

Siffatta visione spiccatamente antropocentrica del rapporto uomo – macchina, come frutto maturo della cultura occidentale nelle sue matrici giudaico-cristiana e greco-romana[14], si rintraccia, rispetto al processo, nella stessa Carta fondamentale.

Appare, del resto, di solare evidenza che quella del ruolo dell’uomo nel processo sia questione di pregnanza anzitutto costituzionale[15]. E ciò non solo come proiezione del principio personalista che innerva il nostro ordinamento e che risulta sancito all’art. 2 Cost. impedendo ogni parificazione, in termini di valore, dell’essere umano alla macchina[16].

La “giurisdizione” di cui al Titolo IV della Parte II della Costituzione del 1947, nel senso più profondo tracciato dalla migliore dottrina[17], è, infatti, per sua natura, eminentemente umana.

Essa, al pari della pubblica amministrazione ex artt. 97 e ss. Cost.[18], è fatta da uomini e per gli uomini e ruota, pertanto,  attorno alla persona fisica del magistrato e, con pari dignità ed importanza, a quella del difensore, quale titolare della difesa in senso tecnico ex art. 24 Cost.[19].

Il “giudice” soggetto soltanto alla legge è l’individuo nominato per concorso ovvero, in taluni casi eccezionali, eletto ai sensi dell’art. 106 Cost.. Ed è anche il beneficiario della garanzia della inamovibilità e del principio di parità di cui all’art. 107, commi I e III, Cost..

Lo stesso modello costituzionale del giusto processo ex art. 111 Cost. ha a mente il giudice persona fisica a cui solo (e non anche alla macchina) possono essere riferiti i necessari attributi della terzietà ed imparzialità.

Analoghe considerazioni valgono anche per il modello europeo di processo e, segnatamente, per quello convenzionale ex art. 6 C.E.D.U.. Il processo “equo” ivi disegnato richiede, infatti, non solo un tribunale “imparziale” [20] ma anche garanzie di pubblicità dell’udienza che presuppongono, nella giurisprudenza di Strasburgo, il contatto diretto tra giudice e parti del processo[21].

Le garanzie di indipendenza e imparzialità, sempre declinate in chiave personale, tornano anche nell’art. 47 della Carta dei Diritti Fondamentali dell’Unione Europea e nella lettura che di tale articolo è offerta dalla Corte di Giustizia[22].

Una parte della dottrina ha, nella medesima direzione, argutamente suggerito una lettura evolutiva del disposto dell’art. 25 Cost. e del principio del giudice naturale (dal quale nessuno può essere “distolto”) che emancipa questi dal ruolo di semplice endiadi rispetto al principio di precostituzione per legge dell’organo giudiziario (peraltro ribadito indirettamente dall’art. 102 Cost.)[23]. Facendo leva su uno dei significati propri del termine “naturale” come di entità contrapposta a quel che è (invece) “artificiale” si è, così, prospettata la possibilità di fondare su tale disposizione costituzionale il diritto di ciascuno a non essere sottratto al proprio giudice “umano” per essere invece affidato (unicamente) al giudice “robotico”.

Sotto altro profilo è stato pure osservato che un ostacolo difficilmente superabile rispetto all’automazione integrale della funzione giurisdizionale è rinvenibile nell’art. 101, comma 1, Cost., il quale, nel disporre che i giudici sono soggetti soltanto alla legge, implicitamente esclude che il giudice possa essere vincolato dall’esito di procedure algoritmiche che pongono l’operatore del diritto di fronte a pericolosi automatismi applicativi[24].

Questa fitta trama di principi disegna, così, sul piano costituzionale, quella che si è definita una “riserva di umanità”, con ciò intendendosi una sfera giuridica incomprimibile di appannaggio esclusivo della persona anche (e soprattutto) nel processo[25].

2.I più recenti sviluppi ordinamentali e l’emersione, con l’IA Act, di una “riserva di umanità” anche nel processo.

I più recenti sviluppi ordinamentali sembrano tutti muovere verso la progressiva emersione di una “riserva di umanità” nel processo, facendone, da principio immanente implicito nel sistema, un principio espresso.

Si tratta, invero, di un lento e progressivo affioramento, frutto della crescente consapevolezza delle implicazioni che possono discendere dall’impiego dell’IA.

Una prima tappa è stata l’adozione da parte della  European Commission for the Efficency of Justice (C.E.P.E.J.) del Consiglio d’Europa, all’esito della sua XXXI riunione plenaria tenutasi il 3-4 dicembre 2018, della European ethical Charter on the use of Artificial Intelligence in judicial systems and their environment[26].

Detto documento, pur privo di valore immediatamente precettivo, è di altissimo valore simbolico ed enuncia cinque princìpi etici, l’ultimo dei quali prevede proprio che l’uso di servizi o dispositivi di intelligenza artificiale non debba mai limitare, per gli operatori del sistema giustizia, la possibilità di sottoporre in ogni momento le decisioni giurisdizionali (e i dati che posti alla base di queste ultime) ad un controllo umano esterno. Nel dettaglio, il suo quinto principio (pag. 12), intitolato “Principle «under user control»”, stabilisce che il professionista che impieghi lo strumento dell’IA nel processo dovrebbe conservare il potere di rivedere, in ogni momento, anche alla luce del caso concreto in esame, la soluzione proposta dal software, senza esservi vincolato [27].

Al medesimo punto è, altresì, espressamente sancito il diritto della parte ad una decisione umana. Questa va, anzitutto, informata dell’impiego nel processo dello strumento dell’intelligenza artificiale. Tale guarentigia è prevista nell’ottica di garantire alla stessa la possibilità di contestarne il risultato esercitando il proprio diritto di accesso al giudice persona fisica nel senso del già citato art. 6 della Convenzione Europea dei Diritti dell’Uomo[28].

Anche il dibattito dottrinario[29] si è sintonizzato, pur con sfumature diverse, su questa impostazione di fondo che vuole come ineliminabile e necessario, nel processo, l’apporto in chiave decisionale della persona umana.

Non deve, quindi, stupire, che in un simile milieu, si sia giunti, da ultimo, con il Regolamento europeo in tema di intelligenza artificiale[30], a dare consacrazione formale alla “riserva di umanità”.

Questa discende dall’inserimento dei “sistemi di IA destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie” tra quelli ad alto rischio di cui all’articolo 6, paragrafo 2 del Regolamento[31].

Tale inequivoca qualificazione[32], invero limitata alla sola fase della decisione[33], reca, infatti, con sé l’applicazione del regime giuridico di cui alla Sezione II del Capo III del Regolamento (artt. 8 e ss.) e, per quanto qui più interessa, la garanzia della “Sorveglianza umana” ex art. 14[34].

Ad assumere particolare importanza è quanto prescritto al par. 4 del suddetto articolo che, nel definire i canoni di design del sistema di IA ad alto rischio che deve seguire il fornitore, stabilisce, alla lett. d), che deve essere assicurata la possibilità di “decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l’output del sistema di IA ad alto rischio” e, alla successiva lett. e), di “intervenire sul funzionamento del sistema di IA ad alto rischio o interrompere il sistema mediante un pulsante di «arresto» o una procedura analoga che consenta al sistema di arrestarsi in condizioni di sicurezza”[35].

Si tratta, all’evidenza, di una disciplina minima che lascia al legislatore nazionale un’ampia discrezionalità in fase di attuazione.

È, del resto, fuori di dubbio che quella posta dal Regolamento è disciplina che guarda, nell’ottica propria del legislatore unionale, al sistema di IA essenzialmente come “prodotto” da collocare nel mercato unico[36].

Tuttavia, pur in tale peculiare prospettiva, essa pare inevitabilmente destinata a condizionare, ancorché in via mediata, il modello processuale. Stabilire, infatti, delle inderogabili condizioni di funzionamento del sistema di IA impiegato che richiedono la sorveglianza umana equivale ritagliare una riserva incomprimibile in favore della persona nel processo.

In questo senso dall’impianto normativo del Regolamento possono trarsi alcune sicure indicazioni di massima.

Se l’impiego dell’intelligenza artificiale in sede di supporto alla decisione non è certamente vietato[37], per converso, esso non è neppure imposto.

Spetta, pertanto, a ciascuno Stato membro la scelta, politica, se consentire, ed in che limiti, l’ingresso dello strumento dell’IA nel processo.

Ad esempio, se pure l’allegato III al Regolamento, punto 8, sembra aprire alla possibilità di impiegare lo strumento in chiave di assistenza del giudice tanto “nella ricerca e nell’interpretazione dei fatti e del diritto” e “nell’applicazione della legge a una serie concreta di fatti” il legislatore potrebbe decidere di circoscrivere l’utilizzo dell’IA solo ad uno di tali versanti (sempre a titolo esemplificativo, alla sola ricerca normativa o giurisprudenziale).

Anche le modalità di costruzione delle procedural safeguards legate alla “sorveglianza umana” non risultano rigidamente predefinite ma seguono un approccio flessibile e risk- based[38] capace di condurre, in potenza, a soluzioni tra loro molto differenti e che spaziano dalle più “conservative” ad altre più “spinte” verso l’automazione[39].

Non va, peraltro, dimenticato che la disciplina del Regolamento, per quanto minima, sembra, in ragione della sua formulazione, dotata, quantomeno nel suo nocciolo duro, di efficacia diretta negli ordinamenti nazionali (con tutte le conseguenze che ne scaturirebbero in ordine alla eventuale disapplicazione – rectius non applicazione – delle norme del diritto nazionale con essa in contrasto)[40].

Si è, così, dinanzi ad un primo frammento di una disciplina unionale uniforme in tema processuale, che supera, in una qualche limitata misura, un atteggiamento di tradizionale self restraint in materia sostanziatosi nell’elaborazione del noto principio dell’autonomia procedurale degli Stati membri[41].

Ciò importa che l’eventuale adozione in forma totalmente automatizzata di una decisione giurisdizionale senza la predisposizione delle dovute guarentigie in punto di sorveglianza umana, sarebbe viziata per violazione delle suddette previsioni normative ed affetta, quindi, da un error in procedendo[42].

Una riserva di umanità presidiata, quindi, da una sanzione processuale, che ne fa, a tutti gli effetti, una nuova regola del processo (non solo amministrativo)[43].

3.Alla ricerca di una veste giuridica processuale per l’algoritmo.

Se l’acquis dottrinario e normativo depone, ormai, nel senso dell’esistenza di una riserva di umanità processuale circoscritta al momento decisorio, rimane completamente aperto il dibattito sulla sua concreta attuazione.

Il primo e fondamentale nodo da sciogliere è quello di stabilire se si debba o meno riconoscere una qualche veste giuridica all’algoritmo prevedendo per lo stesso un ruolo formale nel processo.

Non può, del resto, trascurarsi che il giudice (ed in ispecie quello amministrativo) fa già da molto tempo un uso del tutto informale di strumenti informatici a supporto della propria decisione. È, infatti, nell’esperienza comune il ricorso a banche dati di vario genere per la ricerca, anche per il tramite di meta-dati, di precedenti giurisprudenziali.

Ciò potrebbe spingere a ritenere che anche l’impiego di strumenti di intelligenza artificiale possa avere luogo in via di fatto, senza che ciò assuma rilievo sul piano strettamente giuridico- formale.

Diverse e molto solide appaiono, però, le ragioni che spingono verso l’opposta soluzione.

In favore della necessità di riconoscere al software di IA una veste giuridica formale nell’ambito del processo milita, anzitutto, la presa d’atto della capacità dello stesso di condizionare, in maniera molto più profonda rispetto ad altri strumenti tradizionali, il momento decisorio. Come surrogato del prodotto intellettuale umano esso fornisce, infatti, un output che si avvicina per fattezze ad una decisione.

Sul piano più squisitamente giuridico sembra, poi, che la necessità dell’intervento del legislatore discenda, da un lato, dalla riserva di legge in materia processuale ex art. 111 Cost. e, dall’altro, dal carattere flessibile della disciplina unionale il quale richiede l’intermediazione di una disciplina di dettaglio.

In ultimo, a spingere verso la formalizzazione del ruolo dell’algoritmo nella disciplina del processo è, soprattutto, l’esigenza di dare diretta pregnanza giuridica alle guarentigie che si dovranno costruire attorno all’impiego dell’IA a supporto della decisione sì che le stesse non rimangano confinate in una dimensione meramente tecnica. E, prima tra queste, il diritto dell’utente finale a essere informato circa l’utilizzo dello strumento anche al fine di assicurare effettività al connesso diritto ad avere una decisione umana[44].

Ciò fa dell’impiego dell’IA nel processo un tema in larga misura, salvo le coordinate minime poste dal Regolamento, da affrontare in una prospettiva de jure condendo.

Si sono, invero, già intraprese, in Italia, delle iniziative legislative in materia che, però, allo stato, scontano un certo grado di vaghezza ed approssimazione[45].

Pare, per contro, si debba praticare grande cautela ed accortezza nella definizione della disciplina in questione atteso che sarà difficile tornare indietro rispetto alle scelte che verranno compiute.

In primo luogo, appare opportuno che le novelle necessarie trovino ospitalità nel Codice del processo (ovvero, come sarebbe forse preferibile, nelle sue norme di attuazione[46]) sì da evitare che, introducendo norme extravaganti, si frustri la pretesa di tale testo a completezza ed esaustività.

In secondo luogo, sarebbe auspicabile riservare all’algoritmo (e, quindi al software che ne è espressione) una collocazione che sia coerente (e non eccentrica) rispetto all’impianto tradizionale del nostro processo.

A tal fine occorre, anzitutto, chiarire quale compito affidare al primo.

Se, infatti, è fuori di dubbio che a questo vada ritagliato un ruolo “servente debole” e non sostitutivo della persona del giudice[47] (che si porrebbe altrimenti in contrasto con il nucleo essenziale minimo della riserva di umanità nel processo), il suo campo di intervento potrebbe, tuttavia, variare in modo significativo.

In particolare, alla luce dell’ampio margine lasciato dall’IA Act, il supporto offerto dalla macchina potrebbe riguardare sia la “ricerca” ed “interpretazione dei fatti” che “del diritto” anche nell’ottica dell’applicazione “della legge a una serie concreta di fatti”[48].

Ebbene, sembra che ragioni di prudenza sconsiglino, almeno in una prima fase, l’impiego dell’intelligenza artificiale con riguardo all’accertamento e ricostruzione delle vicende in fatto[49]. Ciò almeno per due ordine di ragioni: la tendenziale inadeguatezza, almeno allo stato dell’arte, dell’approccio esperienziale di tipo induttivo proprio del machine learning a tale profilo[50] e, soprattutto, l’irriducibile unicità della vicenda concreta che viene in rilievo come thema probandum del singolo processo[51].

Pare, pertanto, preferibile, almeno nelle condizioni attuali, limitare l’impiego dello strumento dell’IA ai soli profili e questioni in diritto e solo a valle dell’attività di accertamento dei fatti dedotti in giudizio.

L’intelligenza artificiale potrebbe, così, rivelarsi di particolare utilità per il perseguimento dell’obiettivo della certezza del diritto e della prevedibilità degli orientamenti interpretativi[52], esigenza particolarmente avvertita specie in chiave nomofilattica[53].

Il software permetterebbe al giudice, anzitutto, di conoscere e mappare con accuratezza i propri precedenti (anche minoritari[54]), di ponderare gli stessi (in termini di consistenza numerica), di dare conto della loro evoluzione e di censire le argomentazioni a sostegno di ciascuno, anche se del caso suggerendo l’adesione all’uno o all’altro.

Nell’ipotesi di un siffatto, limitato, utilizzo il software è chiamato ad intervenire in una fase pre-decisoria che si colloca tra quella istruttoria in senso stretto ed il passaggio formale in decisione della causa[55].

In questa ottica, è stato prospettato, da una parte della dottrina, un paragone tra l’algoritmo e la figura dell’Avvocato Generale, amicus curiae le cui conclusioni il giudice umano è tenuto a considerare, ma libero di disattendere, motivando[56].

Per quanto suggestivo, il parallelo in parola non pare condivisibile perché finisce col fare del software un inedito ausiliario del giudice (in maniera non dissimile al consulente tecnico o del commissario ad acta[57]) dando luogo ad una sorta di personificazione dello stesso[58]. Il che risulta, invero, incompatibile con le ormai consolidate acquisizioni dottrinarie e giurisprudenziali circa la sua natura giuridica come mero instrumentum (e non come atto né tantomeno soggetto)[59].

Sembra, pertanto, che l’algoritmo vada inquadrato come mezzo a supporto dell’attività decisoria in senso stretto del giudice. Non un “mezzo di prova” ex art. 63 c.p.a.[60] ma, piuttosto, un ausilio nella deliberazione della decisione di cui agli artt. 75 e ss. c.p.a, prestato nel rispetto del fondamentale principio dello iura novit curia[61]. Una funzione peculiare, in certa misura inedita, che sembra trovare il suo archetipo più prossimo nell’art. 14 della l. n. 218 del 1995 di riforma del sistema italiano di diritto internazionale privato in tema di “Conoscenza della legge straniera applicabile”[62].

V’ è, peraltro, da ritenere che l’utilizzo di un siffatto strumento debba rimanere, in ogni caso, eventuale e facoltativo[63] e, come tale, rimesso, in linea con quanto stabilito all’art. 14, par. 4 , lett. d) del Regolamento, ad una valutazione discrezionale del giudice in ordine alla necessità ovvero solo opportunità del suo impiego.

Sul piano delle forme processuali il legislatore potrebbe prevedere che tale potere (officioso ma attivabile anche su stimolo delle parti) vada esercitato per il tramite di apposito provvedimento[64] anche richiedendo al giudice la formulazione del quesito in diritto da sottoporre alla macchina[65].

Una simile soluzione presenta il duplice vantaggio di rendere edotte le parti dell’uso dell’intelligenza artificiale (così assicurando alle stesse una prima fondamentale guarentigia) ma anche di stimolare il contraddittorio tra le stesse in ordine al risultato del suo impiego[66]. Sempre in chiave de jure condendo sembra opportuno che la risposta al quesito, resa in linguaggio naturale, debba, infatti, confluire tra gli atti del processo sì da sottoporla ai rilievi ed alle osservazioni delle parti[67].

Un passaggio, quest’ultimo, che avrebbe l’effetto di “umanizzare” il contributo offerto dal software prima che lo stesso sia sottoposto al vaglio del decisore umano.

4. Le nuove sfide del processo che verrà: il rapporto tra persona ed algoritmo ed il pericolo di un automation bias.

Un profilo che non potrà essere tralasciato ma andrà, per contro, debitamente meditato in sede di regolazione dell’impiego dell’intelligenza artificiale in campo processuale è quello del rapporto tra la persona del decisore (il giudice in ultima analisi) e l’algoritmo.

Se, infatti, l’impiego dell’algoritmo a supporto della decisione giudiziale potrebbe in potenza rivelarsi assai utile per contenere e gestire pericolose trappole ed interferenze cognitive nella ricostruzione del giuridico[68], vi è però, al contempo il pericolo di un “automation bias” e, segnatamente, della tendenza della persona fisica ad affidarsi acriticamente al risultato computazionale appiattendosi sulla soluzione suggerita dal software[69].

E’ stato, in questo senso, segnalato il rischio di uno svuotamento della riserva di umanità in campo processuale in grado di tramutare questa in uno “scialbo simulacro”, in un controllo solo formale ed apparente della persona sull’operato della macchina[70]. Un rischio che si accompagna con quello di ossificazione dell’ordinamento[71], con conseguente incapacità di questo di evolversi anche lungo tracciati e percorsi minoritari e di rottura.

Del resto, non può obliterarsi che analoghe preoccupazioni traspaiono anche dello stesso IA Act.

In particolare, il par. 4 del già richiamato art. 14, nel definire le caratteristiche che deve presentare un sistema di IA ad alto rischio richiede che la persona fisica a cui è affidata la sorveglianza sia in grado di “comprendere correttamente le capacità e i limiti pertinenti del sistema” e di “monitorarne debitamente il funzionamento” (lett. a), di “interpretare correttamente l’output” del medesimo (lett. c) e, soprattutto, di “restare consapevole della possibile tendenza a fare automaticamente affidamento o a fare eccessivo affidamento sull’output prodotto” (lett. b)[72] specie nel caso in cui, come accade nell’automazione processuale, lo strumento sia impiegato “per fornire informazioni o raccomandazioni per le decisioni che devono essere prese da persone fisiche”.

È, peraltro, evidente che il Regolamento, con tali disposizioni, più che disegnare soluzioni tecniche specifiche, individua degli obiettivi da perseguire lasciando, ancora una volta, un certo margine di flessibilità in ordine alla scelta delle misure da adottare (ed alla loro eventuale combinazione), sempre orientato dai canoni di opportunità e proporzionalità[73].

Ne discende che gli accorgimenti da adottare per garantire la supervisione umana sul funzionamento del sistema di IA andranno tarati avendo a mente le cause alla base dell’automation bias[74] nonchè le peculiari esigenze che si riscontrano in campo processuale. Essi potranno, peraltro, avere natura solo “tecnica” (e riguardare l’elaborazione ed implementazione del software) ovvero “giuridico formale” (ed attingere la disciplina lato sensu processuale).

Senza pretesa di esaustività e nella consapevolezza che il confronto su un tema così nuovo quanto delicato versa ancora in uno stato embrionale e necessita dell’apporto di scienze diverse da quella giuridica (in primis la psicologia comportamentale), pare possano essere comunque ipotizzate alcune basilari misure di contenimento dell’automation bias.

La prima strategia di debiasing è quella di mantenere, come già si è suggerito, solo facoltativo ed eventuale l’impiego dell’IA nel processo, lasciando al giudice la scelta fondamentale di avvalersi o meno dello strumento.

Come naturale corollario di ciò sarebbe, poi, probabilmente opportuno esplicitare a livello normativo, senza lasciare che ciò sia affidato all’opera della giurisprudenza, che, coerentemente con quanto previsto all’art. 14, par. 4, lett. d) dell’IA Act[75], il mancato recepimento della proposta ovvero delle previsioni della macchina non può costituire, da sé, vizio della sentenza o motivo di impugnazione. E a completamento di tale quadro forse potrebbe anche precisarsi, con una novella al testo della l. n. 117 del 1988 che lo scostamento in sede di decisione dal risultato computazionale non può mai integrare ex se un’ipotesi di responsabilità per dolo o colpa grave del magistrato. Ciò contribuirebbe a sollevare, in parte, il giudice dal peso di un confronto con la macchina ed evitare che l’impiego dell’intelligenza artificiale divenga fattore per un’amministrazione della giustizia in senso difensivo.

Altro accorgimento per prevenire (o comunque ridurre) l’“ancoraggio” alla proposta computazionale potrebbe essere quello di introdurre il divieto (se del caso sanzionato disciplinarmente) dell’utilizzo di forme di intelligenza artificiale generativa per la stesura della parte in diritto e del dispositivo della sentenza[76]. Ciò avrebbe, infatti, come conseguenza quella di mantenere la motivazione (con la calibratura delle rationes decidendi anche nella fondamentale prospettiva della conformazione del potere) un atto autenticamente umano e di eliminare, al contempo, la fascinazione che può esercitare, in termini di alleggerimento del lavoro quotidiano del magistrato, una sentenza “preconfezionata”.

A queste considerazioni si lega la questione se il giudice debba o meno espressamente motivare la mancata adesione alla proposta della macchina.

Sembra che ciò sia da escludere non solo in quanto un simile aggravamento dell’onere motivazionale potrebbe scoraggiare una decisione in difformità alimentando l’ancoraggio alla proposta computazionale ma soprattutto perché  non sarebbe coerente con il consolidato orientamento in tema di motivazione dei provvedimenti giudiziari secondo cui non è richiesto al giudice di prendere posizione su tutte (e ciascuna) delle argomentazioni addotte in giudizio essendo, per contro, sufficiente che venga congruamente esplicitato l’iter logico-giuridico che ha condotto verso la soluzione prescelta[77]. Del resto, diversamente opinando si finirebbe col riconoscere surrettiziamente al suggerimento ricostruttivo dell’algoritmo un’autorevolezza e, quindi, un valore sul piano processuale, addirittura maggiore di quella delle parti.

In ultimo, il contenimento dell’automation bias può passare, come anticipato, anche per accorgimenti tecnici in sede di costruzione del software.

Si potranno, a monte, escogitare meccanismi di costruzione del dataset di base e dei successivi input di implementazione che non si rivelino autoreferenziali prevedendo, ad esempio, l’utilizzo per l’addestramento del software non solo della giurisprudenza ma anche della dottrina[78].

Altro piano di intervento in chiave correttiva del fenomeno di ancoraggio potrebbe essere quello della modulazione dell’output. Per preservare la neutralità dello strumento si potrebbe richiedere all’algoritmo l’offerta di una pluralità di proposte di soluzione al quesito (e non di un’unica proposta), se del caso graduando le stesse in ragione del numero di eventuali precedenti a sostegno.

L’impiego dell’intelligenza artificiale si tramuterebbe, così, da fattore di potenziale irrigidimento del sistema normativo a propulsore per l’evoluzione ordinamentale e veicolo anche per ricostruzioni minoritarie ed innovative[79].

5. Uno sguardo al futuro prossimo: verso un giudizio ad umanità “aumentata”.

Quanto visto nei paragrafi precedenti spinge a formulare alcune, provvisorie, riflessioni di sistema.

Pare, anzitutto, necessario prendere coscienza della circostanza che l’avvento dell’IA cambierà, in certa misura, il lavoro dei giuristi pratici (ed in primis del giudice). Un cambiamento che, con ogni probabilità, sarà di tipo qualitativo (e non solo quantitativo, in termini di mera accelerazione della risposta di giustizia)[80].

La sfida che si profila all’orizzonte è, quindi, quella di cogliere il meglio che lo strumento potrà offrire senza che ciò finisca con lo stravolgere i connotati fondamentali del processo e, segnatamente, la sua dimensione umana.

Per fare ciò occorre diffidare, prima che della macchina[81], dell’uso che potrà fare di questa l’uomo[82].

E, allora, è su quest’ultimo che si deve, anzitutto, puntare.

In un processo sempre più digitalizzato, espressione di questa stagione di “nuova oggettività”[83], la società (e, in particolare, la comunità dei giuristi) ha sempre maggiore bisogno dell’apporto che è in grado di fornire l’intelligenza “naturale”[84].

Se il software può essere uno strumento utile al giudice per conoscere meglio sé stesso (i propri orientamenti, le proprie posizioni)[85], questi deve, infatti, essere preparato a rapportarsi virtuosamente allo strumento.

E per fare ciò deve coltivare specifiche competenze, alcune nuove, altre antiche, che sono il presupposto irrinunciabile per vivere consapevolmente la transizione digitale[86].

Competenze che, si badi bene, non possono essere unicamente tecniche[87] ma, anzitutto, quelle tradizionali del giurista e, quindi, di taglio eminentemente umanistico[88].

Il “giudice dell’algoritmo” sarà chiamato a coltivare, anche rispetto al risultato computazionale, il senso critico che è l’essenza del suo compito. E, nel fare ciò, dovrà gestire tanto i bias dell’algoritmo quanto quelli propri. E, ancora, prima di passare a setaccio le soluzioni (e le risposte) prospettate dalle parti all’algoritmo, dovrà essere in grado di porre a quest’ultimo la domanda giusta[89].

Ma, soprattutto, dovrà conservare la consapevolezza del proprio ruolo, non come atto di chiusura autoreferenziale, ma come atto di coscienza, vero ultimo attributo differenziale tra persona e macchina: coscienza del contesto della propria decisione e dell’impatto che la stessa è destinata ad avere nella vita dei propri simili[90].

Solo così potrà essere garantita, nel processo, non tanto (e non solo) l’umanità della decisione (intesa come l’attribuibilità ad una persona fisica della manifestazione ultima del giudicare) quanto la stessa umanità del decisore[91].

Un decisore portatore di una nuova umanità “aumentata”[92] che coltivi, nel confronto con la tecnica, un pensiero “lento” e profondo[93].

* Il presente saggio riprende e sviluppa la relazione tenuta nell’ambito del convegno “il giudice amministrativo al cospetto della trasformazione digitale” – “Le juge administratif face à la transformation numérique” organizzato dalle Università LUM e Sorbona il 27 e 28 settembre 2024 sotto l’egida dell’Ufficio Studi della Giustizia Amministrativa  e della Section des études , de la prospective et de la coopération del Conseil d’Etat.

[1] Come spesso accade la letteratura, sganciata dal peso della scientificità, ha svolto un ruolo quasi profetico preconizzando scenari che poi hanno trovato (o stanno trovando) una qualche realizzazione.  Il riferimento più noto è a I. Asimov, Io Robot, nella traduzione di R. Rambelli, Milano, 1963 e alle leggi della robotica descritte nel racconto “Circolo

Vizioso” che saranno di ispirazione, di recente, per il giurista statunitense F. Pasquale, Le nuove leggi della robotica. Difendere la competenza umana nell’era dell’intelligenza artificiale, nella traduzione di P. Bassotti, Roma, 2021.

[2] Si pensi, quanto alla giustizia amministrativa, all’esperienza del processo amministrativo telematico (il c.d.  P.A.T.; per una disamina delle sue caratteristiche si rinvia a L. Viola, Le dottrine del processo amministrativo telematico, Judicium, 3, 2018) ed alle successive applicazioni del rito da remoto pandemico e post- pandemico (in relazione al quale si vedano C. Volpe, Pandemia, processo amministrativo e affinità elettive, su www.giustizia-amministrativa.it e F. Francario, Il non – processo amministrativo nel diritto dell’emergenza Covid 19, su giustiziainsieme, 14 aprile 2020).

[3] La migliore dottrina ha parlato in proposito dell’avvento dell’intelligenza artificiale come di un fenomeno di “re-ontologizzazione” (L. Floridi, Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Milano, 2022, 11 e ss.).

[4] Si possono, infatti, immaginare applicazioni dell’intelligenza artificiale al processo molto poco “invasive” come per l’organizzazione e gestione dei ruoli, la ricerca dei precedenti, la pseudonimizzazione dei provvedimenti giudiziari. Altra possibile (e fruttuosa) applicazione potrebbe essere quella della ricerca documentale “intelligente” (con l’impiego di software in grado di estrapolare specifiche informazioni dalla massa di atti acquisita in giudizio).

[5] È stato autorevolmente osservato che l’applicazione degli strumenti di intelligenza artificiale alla decisione giurisdizionale costituisce “l’aspetto più avvincente, ma anche più inquietante: può l’algoritmo sostituirsi al ragionamento del giudice? E può il robot sostituirsi al giudice umano?” (G. Alpa, L’intelligenza artificiale, Il contesto giuridico, Modena, 2021, 10 -11). Si vedano, sul punto, anche le riflessioni di A. Pajno, La transizione digitale e il contributo dei giuristi. L’importanza del processo amministrativo, in Una giustizia amministrativa digitale?, a cura di M. Ramajoli, Bologna, 2022, 8 e ss..

[6] Quello tipico dell’uomo post-moderno portatore di un “pensiero debole” (espressione coniata da G. Vattimo, P.A. Rovatti, Il pensiero debole, Milano, 2010) profondamente nichilista (il riferimento è, in particolare, a N. Irti, Nichilismo giuridico, Bari, 2005) e che si è tradotto in una debolezza del discorso giuridico, rimasto orfano di un’ontologia solida da cui attingere.

[7] La tecnica, infatti, secondo l’insegnamento dei Maestri, è, al contempo, foriera di sviluppo e strumento di sopraffazione, disegnando gerarchie e posizioni di potere. L’essenza della tecnica è stata indagata, in filosofia, tra tutti, da M. Heidegger, La questione della tecnica, nella traduzione italiana di G. Vattimo, Firenze, 2017, e E. Severino, Il destino della tecnica, Bologna, 1998. Nella prospettiva di E. Severino, Il destino della tecnica, cit., nel corso della storia cristianesimo, umanesimo, illuminismo, capitalismo e democrazia hanno inteso servirsi della tecnica per far prevalere i propri scopi su quelli antagonisti ma sono rimasti vittima di un’illusione trasformandola da mezzo in fine e, così assicurandole il dominio sul mondo contemporaneo. Il continuum lungo il quale oscilla la storia del genere umano, tra schiavitù e potere, tra assoggettamento e predominio è stata indagata, anche nella sua proiezione futura, nella sua ultima opera da R. Bodei, Dominio e sottomissione. Schiavi, animali, macchine, Intelligenza Artificiale, Bologna, 2019.

[8] Quello di “limite”, al pari di tutti i più pregnanti istituti della dottrina giuridica, non costituisce altro che un concetto teologico secolarizzato secondo la sempre valida riflessione di C. Schmitt, Teologia politica, oggi in Le categorie del “politico”, Bologna, 2022, 61 e ss.. Come osservato da G. Preterossi, Teologia politica e diritto, Bari, 2022, 11, l’attualità del pensiero schmittiano sta nell’aver sottolineato “l’inaggirabile persistenza di una corrispondenza strutturale e formale tra concetti «ultimi», teologici e metafisici, e concetti politico-giuridici”.

[9] Una chiave di lettura che si è cercato di seguire in G. Gallone, Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione tra procedimento e processo, Padova, 2023, 5 e ss..

[10] Per una panoramica ad ampio spettro del dibattito etico attorno all’impiego degli algoritmi cfr. B.D. Mittelstadt, P. Allo, M. Taddeo, S. Wachter, L. Floridi, The ethics of algorithms: Mapping the debate, in Big Data & Society, luglio-dicembre 2016, 1 ss.. Nell’universo cattolico il riferimento è, invece, a P. Benanti, Oracoli. Tra algoretica e algocrazia, Roma 2018 e del medesimo Autore Le macchine sapienti. Intelligenze artificiali e decisioni umane, Bologna, 2018.

[11] Di “umanesimo digitale” hanno parlato J. Nida-Rümelin, N. Weidenfeld, L’umanesimo digitale. Un’etica per l’epoca dell’Intelligenza Artificiale, nella traduzione di G. B. Demarta, Milano, 2019. Nel nostro campo è, quindi, quanto mai opportuno tornare a parlare di un “umanesimo giuridico” riprendendo l’insegnamento dei Maestri (G. Miele, Umanesimo giuridico, oggi in Id., Scritti giuridici, II, Milano, 1987, 445).

[12] Ciò ha spinto ad elaborare nuove leggi fondamentali a cui deve prestare ossequio la robotica. Tra di esse spiccano, in particolare, quelle secondo cui “I sistemi robotici e le AI devono essere complementari ai professionisti e non sostituirli” e gli stessi “non devono contraffare l’umanità” (F. Pasquale, Le nuove leggi della robotica. Difendere la competenza umana nell’era dell’intelligenza artificiale, cit. 24-25).

[13] Sono le considerazioni di L. Floridi, Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, cit., 98-99. L’Autore aggiunge che “gli esseri umani dovrebbero mantenere il potere di decidere quali decisioni prendere, esercitando la libertà di scelta dove necessario e cedendola nei casi in cui ragioni di primaria importanza, come l’efficacia, possano prevalere sulla perdita di controllo sul processo decisionale” con l’ulteriore precisazione che “qualsiasi delega dovrebbe anche rimanere in linea di principio rivedibile, adottando come ultima garanzia il potere di decidere di decidere di nuovo”.

[14] L’idea di “processo” è antica quanto la civiltà occidentale. La sua nascita è raccontata, con lo strumento del mito, da Eschilo nella tragedia de “Le Eumenidi” (per una rilettura giuridica dell’opera M. Cartabia, Una parola di giustizia. Le Eumenidi dalla maledizione al logos, Inaugurazione dell’anno accademico dell’Università Roma Tre, 23 gennaio 2020). Ponendo fine alla scia di sangue che corre lungo le prime due opere dell’Orestea, Atena, dea della sapienza scaturita dalla testa di Zeus, rompe la catena della vendetta sottraendo Oreste alle Erinni ed istituisce un tribunale composto da giudici giurati, scelti tra i migliori cittadini. All’imperscrutabile responso divino si sostituisce, così, una giustizia umana in cui dominano il logos, la parola, il ragionamento, la persuasione, la prova. L’avvento dell’intelligenza artificiale nel processo, se non compensato dal fattore umano, potrebbe segnare, per converso, una regressione verso una dimensione quasi oracolare del giudizio. S. Foà, G. Montedoro, Dialogo sulla nuova oggettività, Napoli, 2024, 35, evidenziano, in proposito, efficacemente che “La macchina intelligente tende a porsi come potenza aleteica. Dispositivo che ha il compito di enunciare il vero. Una sorta di nuova funzione oracolare”. Già A. Garapon, J. Lessègue, La giustizia digitale. Determinismo tecnologico e libertà, nella versione italiana a cura di M. R. Ferrarese, Bologna, 2018, 172, avevano osservato che “L’uso del termine «predittivo» comporta innegabilmente un carattere magico, quasi divinatorio. Questa nuova forma di giustizia è quindi percepita come un oracolo”.

[15] E non è, quindi, un caso che la tematica sia stata affrontata, per lo più, da studiosi del diritto costituzionale. Tra questi si segnalano M. Luciani, La decisione giudiziaria robotica, in Rivista AIC, 3, 2018, 872 ss.; F.G. Pizzetti, La Costituzione e l’uso in sede giudiziaria delle neuroscienze (e dell’intelligenza artificiale): spunti di riflessione, in BioLaw Journal-Rivista di BioDiritto, Special Issue 2/2019; F. Donati, Intelligenza artificiale e giustizia, in Rivista AIC, 1, 2020, 415 ss.; a livello monografico E. Longo, Giustizia digitale e Costituzione. Riflessioni sulla trasformazione tecnica della funzione giurisdizionale, Milano, 2023.

[16] Come già osservato in G. Gallone, Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione tra procedimento e processo, cit., 50 e ss., la dignità della persona rappresenta il primo e più importante argine alla disumanizzazione tanto della funzione giurisdizionale, quanto di quella amministrativa. Ciò in quanto la tutela della dignità della persona rende costituzionalmente necessario l’intervento dell’uomo nel compimento della scelta giurisdizionale in modo da ripristinare la gerarchia assiologica tra persona e macchina tracciata dalla Carta. In termini analoghi anche E. Longo, Giustizia digitale e Costituzione, cit., 336, secondo cui “Permettere allora che una decisione sugli esseri umani sia presa da una macchina rischia di trattare gli esseri umani come oggetti, mostrando una profonda e intrinseca mancanza di rispetto per la stessa umanità delle persone”.

[17] Secondo l’insegnamento di I.M. Marino, Corte di Cassazione e giudici «speciali» (sull’interpretazione dell’ultimo comma dell’art. 111 Cost.), cit., 913, per cui “la Costituzione detta inequivocabilmente norme sui tratti della «funzione» giurisdizionale piuttosto che sul riparto delle giurisdizioni” sicché essa “non si definisce […] in relazione ai rapporti fra i giudici, ma in relazione ai rapporti fra i soggetti dell’ordinamento e del processo”.

[18] Si vedano sul punto le considerazioni svolte in G. Gallone, Riserva di umanità e funzioni amministrative, cit., 41 e ss., riprese e sviluppate quanto al processo alle pagine 205 e ss..

[19] Come segnalato da M. Luciani, La decisione giudiziaria robotica, cit., 89 ss., il quale osserva che un processo robotico imporrebbe una radicale trasformazione (e verosimilmente una compressione) dell’esercizio del diritto di difesa, imponendo nuove tecniche nella redazione dei ricorsi, nella articolazione dell’istruttoria, nelle argomentazioni dei difensori. Ciò sembra destinato ad avere un impatto sulla professione forense diminuendo la competitività degli studi di piccole e medie dimensioni rispetto a quelli più strutturati e dotati di maggiori risorse finanziarie (e, quindi, in grado di accedere a strumenti di IA più avanzati ed efficienti).

[20] Nella giurisprudenza della Corte Europea dei diritti dell’Uomo il carattere “imparziale” della giurisdizione si fonda sull’assenza di “pregiudizi o preconcetti” da parte del giudice-persona fisica. Tale assenza di pregiudizi o preconcetti è declinata in senso soggettivo e oggettivo (Corte eur. dir. uomo, 1 ottobre 1982, ricorso n. 8692/79, Piersack v. Belgium, spec. paragrafo 30; 10 febbraio 2004, ricorso n. 53971/00, D.P. v. France; 26 aprile 2011, ricorso n. 31351/06, Steulet v. Switzerland; 31 maggio 2011, ricorso n. 59000/08, Kontalexis v. Greece). L’imparzialità dell’organo giudicante va, dunque, accertata mediante una verifica che si fonda su un doppio approccio, all’un tempo soggettivo ed oggettivo. Da un lato, in senso soggettivo, nessun componente del tribunale deve avere pregiudizi personali verso gli imputati o comunque verso le parti; l’assenza di simili pregiudizi si presume salvo prova contraria (ex multis Corte eur. dir. uomo., 18 ottobre 1982, n. 6878/75; 7238/75, Le Compte, Van Leuven and De Meyere v. Belgium, in www.echr.coe.int.). Dall’altro, in senso oggettivo, la giurisdizione è imparziale nella misura in cui si possa escludere ogni legittimo dubbio, anche apparente e non dipendente dalla condotta personale dei giudici (così, tra gli altri, Corte eur. dir. uomo, 20 maggio 1998, nn. 21257/93; 21258/93; 21259/93; 21260/93, Gautrin v. France; 15 dicembre 2005, n. 73797/01, Kyprianou v. Cyprus, tutte in www.echr.coe.int.).

[21] Secondo l’interpretazione fornita dai giudici di Strasburgo, la pubblicità dell’udienza costituisce un elemento essenziale per l’attuazione del fair trial, in quanto assicura trasparenza all’operato e alla decisione finale del giudice, impedendo “una giustizia segreta, sottratta al controllo del pubblico”. Inoltre è uno degli strumenti mediante i quali si realizza e preserva “la fiducia nelle corti e nei tribunali da parte della collettività, rassicurata sul fatto che lo sforzo di stabilire la verità sarà massimo” (Corte eur. dir. uomo, Riepan c. Austria, 14 novembre 2000, n. 35115/97, § 27; Tierce e altri c. San Marino, 25 luglio 2000, n. 24954/94, 24971/94 e 24972/94, § 92; tutte in www.echr.coe.int.). Tale diritto può realizzarsi in via diretta in forma di pubblicità immediata, consentendo a ogni cittadino maggiorenne di partecipare al processo e, così, avere una diretta percezione delle modalità con le quali viene amministrata la giustizia (e, quindi, di avere un contatto con la persona fisica del giudice), sia in via indiretta in forma di pubblicità mediata, capace però di raggiungere un numero illimitato di persone, attraverso la presenza della stampa e la sua opera divulgativa, contribuendo in tal modo alla realizzazione del diritto di cronaca riguardo alle vicende giudiziarie e all’attività dei pubblici poteri. In dottrina sul requisito della pubblicità dell’udienza nella C.E.D.U. si rinvia a M. Chiavario, Commento all’art. 6 C.E.D.U., in S. Bartole, B. Conforti, G. Raimondi (a cura di), Commentario alla Convenzione europea per la tutela dei diritti dell’uomo e delle libertà fondamentali, Padova, 2001, 154-248.

[22] La giurisprudenza della Corte di Giustizia in materia si è collocata nel solco di quella della Corte di Strasburgo, declinando l’imparzialità in chiave tanto soggettiva quanto oggettiva (così C. giust., C-506/04, Graham J. Wilson c. Ordre des avocats du barreau de Luxembourg, 19 settembre 2006, punto 53. 101; C. giust., cause riunite C-341/06 P e C-342/06 P, Chronopost SA e La Poste c. Union française de l’express (UFEX), 1° luglio 2008, punto 54).

[23] F.G. Pizzetti, La Costituzione e l’uso in sede giudiziaria delle neuroscienze (e dell’intelligenza artificiale): spunti di riflessione, cit., 706; in termini anche ; M. Sciacca, Algoritmo e giustizia alla ricerca di una mite predittività, in Persona e Mercato, 1, 2023, 76.

[24] F. Donati, Intelligenza artificiale e giustizia, cit., 429 e 432.

[25] G. Gallone, Riserva di umanità e funzioni amministrative, cit., passim e, in particolare, 205 e ss.. Il conio dell’espressione “riserva di umanità” (in spagnolo “reserva de humanidad”) la si deve, con riguardo al diritto amministrativo sostanziale, a J. Ponce Solè, Inteligencia artificial, Derecho administrativo y reserva de humanidad algoritmos y procedimiento administrativo debido tecnológico, in Revista General de Derecho Administrativo, 50, 2019). La locuzione è stata ripresa una prima volta, in Italia, sempre con riguardo al diritto amministrativo sostanziale, da F. Fracchia, M. Occhiena, Le norme interne: potere, organizzazioni e ordinamenti. Spunti per definire un modello teorico-concettuale generale applicabile anche alle reti, ai social e all’intelligenza artificiale, Napoli, 2020, 137. Il concetto di “riserva” possiede, del resto, una sua specifica pregnanza giuridica. Esso è istituto classico del diritto costituzionale, transitato dalla tradizione liberale allo Stato costituzionale contemporaneo. Pur nelle sue diverse declinazioni (di legge, di giurisdizione, di amministrazione) esprime l’idea dell’esistenza di una sfera materiale o di azione non contendibile e di appannaggio esclusivo di uno specifico potere dello Stato ovvero di una specifica fonte del diritto.

[26] La Carta è reperibile su www.coe.int con il commento di C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari: verso la definizione di principi etici condivisi a livello europeo? I lavori in corso alla Commissione europea per l’efficacia della giustizia (Cepej) del Consiglio d’Europa, in Questione giustizia, 2018, 189-195. Sulla Carta si veda anche E. Gabellini, La «comodità nel giudicare»: la decisione robotica, in Trim. dir. e proc. civ., 4, 2019, 1305.

[27] Recita il principio in parola che “Professionals in the justice system should, at any moment, be able to review judicial decisions and the data used to produce a result and continue not to be necessarily bound by it in the light of the specific features of that particular case”. È interessante notare come la regola si riferisca, ad ampio spettro, a tutti i soggetti chiamati a rivestire un ruolo tecnico nel processo (per l’appunto “Professionals in the justice system”) con ciò ricomprendendo, si deve ritenere, tanto il giudice quanto gli avvocati.

[28] Statuendo che ciascuna parte “must also be clearly informed of any prior processing of a case by artificial intelligence before or during a judicial process and have the right to object, so that his/her case can be heard directly by a court within the meaning of Article 6 of the ECHR”.

[29] Condivisibile quanto largamente diffusa è l’opinione dell’esistenza di una riserva di umanità nel processo in generale e, per quanto qui di interesse, nel processo amministrativo. Sul punto si vedano: F.G. Pizzetti, La Costituzione e l’uso in sede giudiziaria delle neuroscienze (e dell’intelligenza artificiale): spunti di riflessione, cit., 706, il quale si schiera espressamente a favore della estensibilità del principio di non esclusività algoritmica elaborato dalla giurisprudenza del Consiglio di Stato nella più volte citata pronuncia n. 8472 del 13 dicembre 2019 della Sezione VI, anche in sede di esercizio della funzione giurisdizionale; F. Patroni Griffi, La decisione robotica e il giudice amministrativo, in www.giustizia-amministrativa.it, 2018, 9, che conclude preannunciando che le decisioni giudiziarie resteranno affidate ad un Giudice persona fisica “non foss’altro perché, tutto sommato, preferiamo essere giudicati da nostri simili, le cui decisioni si prestano a una critica più estesa di quella cui si presterebbe la decisione robotica. E anche questo in fin dei conti ci piace poter fare”; L. Viola, L’intelligenza artificiale nel procedimento e nel processo amministrativo: lo stato dell’arte, in Federalismi, 21, 2018, 28 ss.; V. Giabardo, Il giudice e l’algoritmo (in difesa dell’umanità del giudicare), in Giustizia insieme, 2020; S. De Felice, Intelligenza artificiale e “Invalidità e giustiziabilità dinanzi al giudice amministrativo”, in www.giustizia-amministrativa.it, 2021, 15, secondo cui “l’amministrare e il giudicare, perseguire il bene pubblico e attribuire a ciascuno il suo, fin dall’antichità, sono scienze umane e la scienza algoritmica guarda al passato ma non può avere la sensibilità umana”;  E. Follieri, La sentenza frutto dell’intelligenza artificiale, in Diritto e processo amministrativo, , 4 , 2022, che con forza afferma che “se si «salta» l’uomo (la sua individualità, dignità e libertà) per sostituire la ,macchina al giudice, ho timore che ci troviamo sull’orlo di una bisso in cui possiamo sprofondare seppellendo i principi ed i valori umani e democratici del nostro ordinamento”; D. Simeoli, L’automazione dell’azione amministrativa nel sistema delle tutele di diritto pubblico, in Intelligenza artificiale e diritto: una rivoluzione?, vol. II, a cura di A. Pajno, F. Donati, A. Perrucci, Bologna, 2022, 650, che immagina “applicazioni tutorie” dell’intelligenza artificiale al processo amministrativo ovvero come strumento “per potenziare le abilità cognitive del giudice-persona fisica, con un effetto non di sostituzione ma di supporto”; sempre D. Simeoli, L’automazione dell’azione amministrativa nel sistema delle tutele di diritto pubblico, cit., 652, parla di “cobotizzazione” (come convergenza tra sistema di intelligenza artificiale e giudice-persona fisica) rispetto all’impiego di software di ricerca, confronto e categorizzazione dei precedenti nell’ottica di un potenziamento della funzione nomofilattica del Consiglio di Stato; B. Marchetti, Giustizia amministrativa e transizione digitale. Spunti per riflettere su un futuro non toppo lontano, in Una giustizia amministrativa digitale?, a cura di M. Ramajoli, Bologna, 2022, 65 e ss.; L. Carbone, L’algoritmo e il suo giudice, in www.giustizia-amministrativa.it, 2023; V. Tenore, L’intelligenza artificiale può sostituire un giudice? I rischi della involuzione verso un “cretino digitale”, Roma, 2023; M. Sciacca, Algoritmo e giustizia alla ricerca di una mite predittività, cit., passim e 78 e ss.; E. Longo, Giustizia digitale e Costituzione, cit., 335 e ss. secondo cui “Sul piano strettamente giuridico, l’umanità del giudicare si lega profondamente alla portata assiologica sottesa alle decisioni dei giudici, che grazie al loro apporto interpretativo divengono veicolo di valori e di significati”; R. Cavallo Perin, Ratio decidendi ed intelligenza artificiale, in Scritti in onore di Rodolfo Sacco a cura di P. G. Monateri, I, 2024, 309.

[30]  Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale), detto, anche in seguito, “AI Act”, pubblicato sulla Gazzetta Ufficiale dell’Unione Europea il 12 luglio 2024.

[31] Così l’allegato III al Regolamento, punto 8, in materia di “Amministrazione della giustizia e processi democratici”.

[32] Qualificazione he va letta anche alla luce del Considerando 61 al Regolamento secondo cui “Alcuni sistemi di IA destinati all’amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un’autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti. […] L’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana”.

[33] Rimangono, infatti, fuori dalla riserva di umanità processuale tratteggiata dall’IA Act, attività accessorie a carattere amministrativo rispetto a quella decisionale in senso stretto tra cui, ad esempio, la gestione dei ruoli o la pseudonimizzazione. Ciò discende dalla natura eccezionale (e, quindi, di stretta interpretazione) delle norme che qualificano come “ad alto rischio” un dato sistema di IA che spinge a dare una lettura tassativizzante del disposto del punto 6 dell’Allegato III al Regolamento.  In questo senso depone, peraltro, anche il già citato Considerando 61, che, in chiusura, chiarisce che “Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi, quali l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi”. Osserva E. Longo, Giustizia digitale e Costituzione, cit., 305, che detta scelta è legata alla circostanza che siffatti impieghi possono non costituire una diretta e correlata minaccia per i diritti e le libertà.

[34] Sancisce, questo, in apertura, al suo par. 1, che “I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso”.

[35] Come nota E. Longo, Giustizia digitale e Costituzione, cit., 309, la norma contempla due dei tre modi di intendere i modelli di monitoraggio delle decisioni prese dalle macchine, ovvero la capacità di controllare la progettazione e il design delle operazioni algoritmiche (ex ante) e di monitorarle (ex post) (c.d. human-on-the-loop) e la capacità di sottoporre ogni operazione al controllo di un essere umano e di consentire l’intervento in ciascun punto di essa (c.d. human-in-the-loop). Il terzo modo per esprimere lo human oversight è, invece, attraverso lo human-in-command che è la capacità di esaminare e indirizzare, insieme alle singole operazioni e decisioni, gli effetti su larga scala dei sistemi, comprese le implicazioni a livello sociale, etico e giuridico dell’utilizzo di un algoritmo.

[36] È, del resto, appena il caso di rammentare che la base giuridica dell’IA Act è costituita dall’articolo 114 T.F.U.E. che prevede l’adozione di misure destinate ad assicurare l’instaurazione ed il funzionamento del mercato interno e che nell’Explanatory Memorandum che accompagna la proposta la Commissione ha specificato come l’obiettivo principale del Regolamento sia di fissare regole armonizzate, in particolare per quanto concerne lo sviluppo, l’immissione sul mercato dell’Unione e l’utilizzo di prodotti e servizi che ricorrono a tecnologie di intelligenza artificiale o forniti come sistemi di IA indipendenti (“stand-alone”).

[37] Tanto da non essere ricompreso nella elencazione tassativa delle “Pratiche di IA vietate” di cui al Capo II del Regolamento. Invero, il catalogo previsto all’art. 5 contempla solo alcune specifiche pratiche di IA riferibili all’impiego processuale tra cui, ad esempio, si segnala la lett. d) del par.1 secondo cui “l’immissione sul mercato, la messa in servizio per tale finalità specifica o l’uso di un sistema di IA per effettuare valutazioni del rischio relative a persone fisiche al fine di valutare o prevedere il rischio che una persona fisica commetta un reato, unicamente sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità; tale divieto non si applica ai sistemi di IA utilizzati a sostegno della valutazione umana del coinvolgimento di una persona in un’attività criminosa, che si basa già su fatti oggettivi e verificabili direttamente connessi a un’attività criminosa”.

[38] Il “diritto del rischio” entra, così, anche nel processo (il riferimento è, tra tutti, ad A. Barone, Il diritto del rischio, Milano, 2006). Così in maniera espressa il par. 3 dell’art. 14 del Regolamento secondo cui “Le misure di sorveglianza sono commisurate ai rischi, al livello di autonomia e al contesto di utilizzo del sistema di IA ad alto rischio”. La flessibilità dell’approccio deriva dall’impiego di canoni, per la scelta delle misure di sorveglianza, come quelli della opportunità e proporzionatezza (par. 4 dell’art. 14). Per un commento critico sull’approccio “risk-based” utilizzato per l’AI Act C. Novelli, L’Artificial Intelligence Act Europeo: alcune questioni di implementazione, in Federalismi, 2/2024, 95.

[39] In questo senso si veda l’opinione di M. Fink, The EU Artificial Intelligence Act and Access to Justice, in EU Law live, 10 maggio 2021.

[40] La teorica dell’efficacia diretta ha rappresentato la base concettuale che ha portato alla individuazione, nel celebre arresto C. giust., 9 marzo 1978, causa 106/77, Amministrazione delle finanze dello Stato c. S.p.A. Simmenthal, della “disapplicazione” normativa come tecnica di risoluzione delle antinomie e rimedio per assicurare la primautè comunitaria (costruzione ripresa ed affinata nelle forme della “non applicazione” dalla nostra Corte Costituzionale a partire dalla celebre sentenza 8 giugno 1984 n. 170 sul caso Granital).

[41] Sul principio in parola, si veda, tra tutti, D.U. Galetta, “L’autonomia procedurale degli Stati membri dell’Unione Europea: Paradise Lost? – Studio sulla c.d. autonomia procedurale: ovvero sulla competenza procedurale funzionalizzata”, Torino, 2009. Per una sua recente e delicata applicazione con riguardo all’istituto della sospensione cd. “impropria” cfr., da ultimo, Cons. Stato, Ad. plen., 22 marzo 2024, n. 4.

[42] E non è da escludere, anche se questa sede non consente i dovuti approfondimenti, che possa integrare anche una ipotesi di “eccesso di potere giurisdizionale” e possa, pertanto, essere fatta valer come motivo di giurisdizione ex artt. 11 Cost. e 110 c.p.a.. In generale sul tema si vedano le riflessioni di A. Cassatella, L’eccesso di potere giurisdizionale e la sua rilevanza nel sistema di giustizia amministrativa, in Riv. trim. dir. pubbl., 2, 2018.

[43] A partire, chiaramente dall’entrata in vigore della disciplina di che trattasi prevista, in relazione ai sistemi ad alto rischio, per il 2 agosto 2026.

[44] Come sancito nel già citato principio “under user control” della European ethical Charter on the use of Artificial Intelligence in judicial systems and their environment. È, infatti, evidente che calare l’algoritmo nel processo vuol dire sottoporlo al regime di pubblicità che normalmente caratterizza quest’ultimo.

[45] Il riferimento è al disegno di legge n. 1146 del 20 maggio 2024 (“Disposizioni e delega al Governo in materia di intelligenza artificiale”) presentato dal Presidente del Consiglio dei Ministri e dal Ministro della giustizia, il quale, al momento della stesura del presente saggio, risulta all’esame del Senato della Repubblica. Esso, con una norma sostanzialmente in bianco che dà atto dell’esistenza di una riserva di umanità nel processo senza nulla aggiungere, prevede, tra le “Disposizioni di settore” di cui al Capo II, all’art. 14 (“Uso dell’intelligenza artificiale nell’attività giudiziaria”) che “I sistemi di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale. Il Ministero della giustizia disci­plina l’impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari or­ dinari. Per le altre giurisdizioni l’impiego è disciplinato in conformità ai rispettivi ordi­namenti” (comma 1) e che “È sempre riservata al magistrato la de­cisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento” (comma 2). Lo stesso disegno di legge prevede, all’art. 22 (“Deleghe al Governo in materia di intelligenza artificiale”), che “Il Governo è delegato ad adottare, en­tro dodici mesi dalla data di entrata in vi­ gore della presente legge, con le procedure di cui all’articolo 31 della legge 24 dicem­bre 2012, n. 234, acquisito il parere delle competenti Commissioni parlamentari e del Garante per la protezione dei dati personali, uno o più decreti legislativi per l’adegua­ mento della normativa nazionale al regola­ mento del Parlamento europeo e del Consi­glio sull’intelligenza artificiale, adottato dal Parlamento europeo nella seduta del 13 marzo 2024” (comma 1).

[46] Deve notarsi, in proposito, che la sedes delle norme di attuazione è stato prescelto in passato per l’introduzione della disciplina del processo amministrativo digitale (Titolo IV “Processo amministrativo telematico”). Inoltre, collocare la disciplina dell’uso dell’IA tra le “Norme di attuazione” contribuirebbe a contenere l’impatto sistemico della novella sottolineando come quest’ultima non sia destinata ad incidere sulla sostanza del modello processuale.

[47] È la soluzione dell’AI Assistant prefigurata da B. Marchetti, Giustizia amministrativa e transizione digitale. Spunti per riflettere su un futuro non toppo lontano, in Una giustizia amministrativa digitale?, a cura di M. Ramajoli, cit., 69 e ss..

[48] Così argomentando a partire dal già citato allegato III al Regolamento, punto 8.

[49] Da ciò sembra si possa tenere distinta la ricerca documentale “intelligente” (id est l’impiego di software in grado di estrapolare specifiche informazioni dalla massa degli atti acquisita in giudizio) in quanto essa ha valenza ausiliaria rispetto all’accertamento e ricostruzione delle vicende in fatto che non assume in sé valenza decisoria.

[50] Come osserva E. Gabellini, La «comodità nel giudicare»: la decisione robotica, cit., riprendendo l’insegnamento dottrinario tradizionale, “La ricostruzione del fatto e l’attività qualificatoria poste alla base del ragionamento del magistrato rispondono a due logiche differenti: mentre la prima si rispecchia nel brocardo iudex non agnoscit factum, la seconda richiama l’antico principio iura novit curia” e non sono tra loro sovrapponibili per qualità e caratteristiche. Per contro, l’algoritmo predittivo può condurre, da una parte, a quella che è stata definita da una dottrina francese la c.d. “factualisation” del diritto  (D. Cholet, La justice predictive et les principes fondamentaux de procès civil, in Archives de philosophie du droit, 60, 2018, 233), poiché pone tutti gli elementi funzionali al calcolo algoritmico sullo stesso piano, trasformandoli in dati informatici, siano essi legali o dati fattuali, dall’altra parte, essa dissuade il giudice dal cercare la regola generale da applicare, spingendolo, invece, a verificare se la soluzione che gli viene presentata come quella da prendere alla fine del processo informatico corrisponda a quella che deve giudicare. A. Garapon, J. Lessègue, La giustizia digitale, cit., 173 e-175, hanno osservato che, nel caso di impiego dell’intelligenza artificiale a supporto della decisione giurisdizionale, ci “si allontana deliberatamente da un ragionamento giuridico per legare gli elementi in modo diverso. Le decisioni non sono più considerate secondo una logica argomentativa, di tipo sillogistico” operando una “riscrittura” corrispondente ad una “nuova razionalità che esercita un potente effetto di de-simbolizzazione” in cui, sostituendo alla “causalità” la “correlazione”, è il dato numerico a prevalere (“Quantitas non auctoritas facit legem”). Ciò importa il “rimescolamento delle categorie del diritto” e, in particolare della dicotomia “Diritto/fatto” (così sempre A. Garapon, J. Lessègue, La giustizia digitale, cit., 250).

[51] In termini A. Bonafine, L’intelligenza artificiale applicata al ragionamento probatorio nel processo civile. E’ davvero possibile e/o auspicabile?, in Il diritto nell’era digitale. Persona, Mercato, Amministrazione, Giustizia, a cura di R. Giordano, A. Panzarola, A. Police, S. Preziosi e M. Proto, Milano, 2022, 923 e ss..

[52] Di quello che si suole definire la “calcolabilità” del diritto. In uno scenario ordinamentale come quello attuale di crisi della fattispecie il “contare su ciò che verrà” costituisce un “fattore costitutivo del capitalismo” (N. Irti, Un diritto incalcolabile, Torino, 2016, 5 nel solco di M. Weber, Storia economica. Linee di una storia universale dell’economia e della società, 1919-1922, traduzione italiana, Roma, 1993, 298 secondo cui il capitalismo ha bisogno di “un diritto che si possa calcolare in modo simile ad una macchina”).

[53] Si pensi al circuito interpretativo che lega sezioni semplici ed Adunanza plenaria ai sensi dell’art. 99 c.p.a.. Sul punto si veda A. G. Orofino, Riflessioni conclusive, in Id., O. Renaudie, Le juge administratif et ses pouvoirs / Il giudice amministrativo e i suoi poteri, Padova, 2024, 141.

[54] Può, infatti, spesso accadere che, anche all’interno di un medesimo plesso giudiziario, una sezione (o anche una delle possibili composizioni in collegio della medesima) non sia a conoscenza dell’orientamento sposato dall’altra (perché troppo recente ovvero risalente nel tempo).

[55] È stato pure ipotizzato un utilizzo dell’IA anche prima e fuori del processo. Così F. Patroni Griffi, La decisione robotica e il giudice amministrativo, cit., 9, secondo cui “la funzione predittiva della macchina si rivela utile come ausilio alla difesa tecnica delle parti, al momento di intraprendere un’azione o di resistere a essa”. L’Autore si spinge ad affermare che “il robot, più in generale, può costituire un segmento della decisione giudiziale, vuoi in termini quantitativi (decidere una parte della causa per esempio in relazione alla quantificazione del danno), vuoi in termini qualitativi (quale potrebbe essere la “decisione giusta” con riferimento alla fattispecie normativa astratta e all’applicazione giurisprudenziale della norma, fermo restando che sarà poi il giudice a valutare se e in che misura la soluzione robotica sia condivisibile e riferibile al caso concreto)”.

[56] U. Ruffolo, Giustizia predittiva e machina sapiens quale “ausiliario” del giudice umano, cit., che auspica “l’«ufficializzazione» del ruolo della previsione algoritmica nella decisione delle controversie, con funzione ancillare, ma ritualizzabile”.

[57] A cui è espressamente dedicato il Capo IV del c.p.a. “Ausiliari del giudice”.

[58] In dottrina circola già da tempo l’idea, invero ancora assolutamente minoritaria, che l’algoritmo possa essere costruito come autonomo centro di imputazione di diritti e doveri giuridici e, quindi, titolare di una limitata soggettività giuridica (A. Narayanan, D. Perrott, Can Computers Have Legal Rights?, in Artificial Intelligence. Human effects, New York, 1984, 52, G. Sartor, Gli agenti software: nuovi soggetti del ciberdiritto?, in Contr. impr., 2002 e D. Bourcier, De l’intelligence artificielle à la persone virtuelle: émergence d’une entité juridique?, in Droit et société, 2001, 847).

[59] La tesi del software come “strumento”, frutto originale dell’intuizione di A.G. Orofino, La patologia dell’atto amministrativo elettronico: sindacato giurisdizionale e strumenti di tutela, in Foro amm. C.d.S., 2002, 2276 (ripresa dallo stesso Autore in A.G. Orofino, R.G. Orofino, L’automazione amministrativa: imputazione e responsabilità, in Giorn. dir. amm., 12, 2005, 1300 ss.) è uno dei fondamenti teorici della riserva di umanità in campo procedimentale (ma anche processuale). Sul punto sia consentito rinviare, per una più approfondita disamina (anche con riguardo agli orientamenti in materia del giudice amministrativo), a G. Gallone, Riserva di umanità e funzioni amministrative, cit., 87 e ss..

[60] In quanto non volto “a dimostrare la veridicità delle affermazioni in fatto” compiute da ciascuna parte (secondo la classica definizione di attività istruttoria come “attività diretta ad individuare nel mondo esterno al processo qual è il fatto effettivamente sussistente” fornita da C. E. Gallo, La prova nel processo amministrativo, Milano, 1994, 90). Ad essa si contrappone “l’individuazione della disciplina giuridica” frutto di “un’attività interna al processo in quanto la cognizione delle fonti del diritto è di ser sé istituzionale per il giudice, anche quando comporti, ovviamente, un’attività materiale” (così sempre da C. E. Gallo, La prova nel processo amministrativo, cit., 90).

[61] Principio fondamentale del diritto processuale moderno, scolpito all’art. 113 c.p.c., in virtù del quale le parti possono limitarsi ad allegare e provare i fatti costituenti il diritto affermato in giudizio, mentre la legge non deve essere provata al giudice, perché egli la conosce a prescindere da ogni attività delle parti. Sicché questi ha il potere- dovere di individuare le fonti, interpretare le disposizioni per stabilire la norma applicabile al caso concreto ed inquadrare giuridicamente la fattispecie in modo corretto, anche in difetto ovvero in difformità rispetto alle norme richiamate dalle parti. Sul principio in argomento v. A. Pizzorusso, voce Iura novit curia (Ordinamento italiano), in Enc. Giur., XVIII, Roma, 1990.

[62] Il quale, come noto, stabilisce, al comma 1, che “L’accertamento della legge straniera è compiuto d’ufficio dal giudice. A tal fine questi può avvalersi, oltre che degli strumenti indicati dalle convenzioni internazionali, di informazioni acquisite per il tramite del Ministero di grazia e giustizia; può altresì interpellare esperti o istituzioni specializzate”.

[63] In questo senso non pare si possa configurare in capo alle parti un “diritto all’utilizzo dell’intelligenza artificiale nel processo”.

[64] Decreto ovvero ordinanza collegiale seconda se preceda ovvero segua il radicarsi in udienza di un contraddittorio.

[65] Per agevolare il ricorso allo strumento potrebbe essere opportuna l’elaborazione di quesiti standard che uniformino il prompt e, per l’effetto, conducano a esiti in output tra loro confrontabili.

[66] È l’impostazione suggerita anche da R. Cavallo Perin, Ratio decidendi ed intelligenza artificiale, cit., 309.

[67] Le quali potrebbero manifestare la propria adesione all’una o all’altra soluzione evidenziando e criticando gli argomenti posti a base delle stesse e la conferenza delle regulae iuris al caso concreto in esame.

[68] È, infatti, da tempo tramontata, grazie al contributo determinante della psicologia comportamentale l’illusione dell’uomo come “agente ideale razionale” in favore del modello della cd. “bounded rationality” (la “razionalità limitata teorizzata a partire da H. Simon, Models of man. Social and rational, New York, 1957). Il giudice, al pari di qualsiasi altro essere umano tende naturalmente a seguire scorciatoie mentali (le cd. “euristiche”) che guidano verso decisioni automatiche e veloci ma che possono tradursi in errori sistematici e prolungati nel tempo (i cd. “bias”).  Tra questi, ad esempio, l’“euristica della disponibilità” (che si ha quando il giudizio viene formulato basandosi su informazioni immediatamente disponibili e più facilmente richiamate alla memoria sulla scorta di esperienze personali) ovvero l’“euristica dell’ancoraggio” (con il conseguente status quo bias, che porta a cercare conferme della propria impressione inziale piuttosto che analizzare obiettivamente le nuove informazioni pervenute). È evidente che siffatti meccanismi mentali (per la cui tassonomia si rinvia a livello manualistico alla trattazione di F. Vella, Diritto ed economia comportamentale, Bologna, 2023, 23 e ss.) sono in grado di condizionare pesantemente lo svolgimento della funzione giurisdizionale favorendo, ad esempio, la tralatizia conservazione degli orientamenti consolidati ovvero limitando il raggio di analisi di fatti e tesi in campo (sul punto si veda P. Castellani, Psicologia del ragionamento giuridico, , in Psicologia del giudicare – Quaderni della Scuola Superiore della Magistratura, Roma, 32, 2024, 17 e ss.) . In questo senso anche nel contesto del sapere giuridico la consapevolezza dei limiti cognitivi diventa lo strumento fondamentale di miglioramento delle decisioni (G. Pascuzzi, Avvocati formano avvocati, Bologna, 2015). Sulla gestione dei limiti metacognitivi con riguardo allo svolgimento della funzione giurisdizionale si veda M. Bertolotti, Bias e strategie di debiasing, in Psicologia del giudicare – Quaderni della Scuola Superiore della Magistratura, Roma, 32, 2024.

L’impiego dell’intelligenza artificiale può, in ultimo, fungere, da utile contemperamento al fenomeno dell’interferenza cognitiva da cd. “rumore” teorizzata da D. Kahneman, O. Sibony e C. Sunstein, Rumore, Un difetto del ragionamento umano, Torino, 2021. Esso, si distingue dai bias perché è legato, a monte, all’inaffidabilità dello strumento di misurazione che applichiamo alla realtà in grado di determinare una divergenza non voluta in giudizi che dovrebbero, invece, essere identici. Sul punto si vedano le riflessioni di A. Ferrara, M. Ramajoli, La giustizia amministrativa nell’era della digitalizzazione. Dialogo tra informatica e diritto, in Una giustizia amministrativa digitale?, a cura di M. Ramajoli, cit., 156.

[69] Si parla, al riguardo, anche di “effet moutonnier”, ossia di una naturale tendenza a conformarsi alla maggioranza, “come pecore” (A Garapon, J. Lasségue, Giustizia digitale, cit.). Il giudice, sapendo dalla macchina che, per esempio, il 70% dei suoi colleghi deciderebbe il caso di sua competenza in una determinata maniera, potrebbe essere indotto ad uniformarsi acriticamente al risultato fornito dal software, evitando le responsabilità che potrebbero derivare da una scelta autonoma. È un risvolto della “travolgente forza pratica dell’algoritmo”, che finirebbe per indurre il giudice a seguire la scelta suggerita dal computer, finendo così per condizionarne la motivazione evocata da A. Simoncini, L’algoritmo incostituzionale; intelligenza artificiale e il futuro delle libertà, in BioLaw Journal – Rivista di BioDiritto, 1, 2019, 81 in quanto “una volta introdotto un sistema automatico di decisione all’interno di un processo decisionale umano, il sistema automatico tende, nel tempo, a catturare la decisione stessa” e questo “non per ragioni di valore scientifico, di accuratezza predittiva o di affidabilità tecnica dell’automatismo, ma eminentemente per ragioni di convenienza pratica”. In S. Foà, G. Montedoro, Dialogo sulla nuova oggettività, cit., 35, si parla di “fede nell’algoritmo” evocando il modello weberiano “legale-razionale” di burocrazia per spiegare il rapporto tra funzionario persona fisica e macchina in termini di “eterocefalia del comando di potere e dell’apparato costrittivo”.

[70] G. Gallone, Riserva di umanità e funzioni amministrative, cit., 201 e ss..

[71] A. Garapon, J. Lessègue, La giustizia digitale, cit., 184, parlano in proposito di “rafforzamento delle tendenze maggioritarie” e di “pietrificazione nel tempo” del diritto.

[72] La lett b) del par. 4 dell’art. 14 del Regolamento fa espresso riferimento al fenomeno della “distorsione dell’automazione” (nella versione inglese “automation bias”).

[73] Così testualmente l’incipit del par. 4 del citato art. 14 (“ove opportuno e proporzionato”). Un contenuto più puntale hanno le misure individuate dalle lett. d) (“decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l’output del sistema di IA ad alto rischio”) ed e) (“intervenire sul funzionamento del sistema di IA ad alto rischio o interrompere il sistema mediante un pulsante di «arresto» o una procedura analoga che consenta al sistema di arrestarsi in condizioni di sicurezza”).

[74] Alla base di siffatta tendenza ad appiattirsi sul risultato computazionale si rinvengono, invero, fattori eterogenei che si combinano tra loro. Anzitutto, quella che è stata acutamente definita la “comodità” nel giudicare a mezzo di algoritmi (l‘espressione è di E. Gabellini, La «comodità nel giudicare»: la decisione robotica, cit.) ma anche la naturale tentazione di rifuggire la responsabilità (giuridica ma anche morale) legata ad una decisione “autonoma”; in ultimo, la deferenza che si può avvertire rispetto ad uno strumento che si reputa molto più efficiente del ragionamento umano. Con riguardo a quest’ultimo profilo A. Garapon, J. Lessègue, La giustizia digitale, cit., 243, osservano acutamente che il computer è diventato “l’oggetto feticcio idealizzato” che “dà corpo al mito” della calcolabilità e di un mondo “completamente digitalizzabile e strutturato digitalmente, dal cervello alla materia, passando per la società”.

Non va, peraltro, dimenticato che sembra farsi strada, per converso, un atteggiamento sempre più diffuso nella coscienza collettiva di “avversione per gli algoritmi” (di cui parla, tra gli altri, H. Fry, Hello World. Essere umani nell’era delle macchine, Torino, 2018, 29) e che può condurre, ove non governata, ad una chiusura preconcetta nei confronti dell’utilizzo dello strumento da parte degli operatori.

[75] Secondo cui, come visto, nei sistemi di IA ad alto rischio, deve essere assicurata la possibilità di “decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l’output”.

[76] Mentre l’impiego di siffatti strumenti potrebbe essere impiegato per la redazione delle altre parti della sentenza (la parte in fatto e, soprattutto, le parti accessorie tra cui l’intestazione), salva anche per queste la revisionabilità del testo da parte del magistrato.

[77] In questo senso un utile spunto può venire dal parallelo con la costante giurisprudenza amministrativa in materia di revocazione per errore sul fatto ex artt. 395, comma 1, n. 4 c.p.c. e 106 c.p.a. secondo cui, anche alla luce del dovere di sinteticità ex art. 3 c.p.a., è sufficiente che la motivazione della sentenza dia conto dell’iter logico-giuridico seguito dal giudice senza che questi abbia l’onere di prendere pedissequamente posizione su ogni singola deduzione difensiva (così ex multis Cons. Stato, sez. VI, 5 marzo 2024 n. 2161).  Ciò in quanto “il giudice procedente è libero di attingere il proprio convincimento da quelle prove o risultanze di prova che ritenga più attendibili e idonee alla formazione dello stesso, non essendo necessario dare conto, nella motivazione, dell’esame di tutte le allegazioni e prospettazioni delle parti e di tutte le prove acquisite al processo: è infatti sufficiente che il giudice esponga – in maniera concisa ma logicamente adeguata – gli elementi in fatto ed in diritto posti a fondamento della sua decisione e le prove ritenute idonee a confortarla, con la conseguenza che devono reputarsi implicitamente disattesi tutti gli argomenti, le tesi e i rilievi che, seppure non espressamente esaminati, siano incompatibili con la soluzione adottata e con l’iter argomentativo svolto” (cfr. ex multis Cass. civ. sez. V, ordinanza 29 dicembre 2020, n. 29730 ma anche Cons. Stato, sez. IV, 28 giugno 2021, n. 4894).

[78] Il che apre di riflesso al tema, connesso, delle fonti da cui attingere i dati. Problema che, quanto alla giurisprudenza, potrebbe essere risolto per il tramite del ricorso alla banca dati delle pronunce della giustizia amministrativa e per la dottrina, attraverso l’elaborazione di un bacino di riviste dotate del carattere della scientificità da cui attingere. Una soluzione innovativa potrebbe essere rintracciata neanche nell’impiego, per il mantenimento del dataset, della tecnologia dei registri distribuiti (cd. blockchain) oggi disciplinata dal noto art. 8 ter del c.d. decreto competitività per l’anno 2019 (Decreto legge 14 dicembre 2018, n. 135, convertito con la legge 11 febbraio 2019, n. 12 di «Conversione in legge del decreto-legge 14 dicembre 2018, n. 135, recante disposizioni urgenti in materia di sostegno e semplificazione per le imprese e per la pubblica amministrazione», pubblicata in G.U. n. 36 del l’11 febbraio 2019). Sulle applicazioni della tecnologia blockchain al settore pubblico M. Atzori, Blockchain technology and decentralised governance: is the State still necessary?, in Journal of governance and regulation, 2017, 6(1), 45, G. Gallone, Blockchain, procedimenti amministrativi e prevenzione della corruzione, in Dir.ec., 3, 2019, 196, M. ALLENA, Blockchain technology for environmental compliance: towards a choral approach, in Enviromental Law Review, 4, 2020, M. MACCHIA, Blockchain e pubblica amministrazione, in Federalismi, 2, 2021 e G. Gallone, Blockchain e big data nel settore pubblico:

spunti in tema di G.D.P.R. compliance, in Federalismi, 14, 2022, 67 ss..

[79] E scongiurare il rischio segnalato da L. Torchia, La giustizia amministrativa digitale, in Una giustizia amministrativa digitale?, cit., 52-55, di “non predire il futuro, ma piuttosto di proiettare il passato” così tradendo il ruolo creativo che il giudice ha sempre avuto nella storia del diritto amministrativo italiano.

[80] Come condivisibilmente messo in evidenza da F. Santagada, Intelligenza artificiale e processo civile, in Il diritto nell’era digitale. Persona, Mercato, Amministrazione, Giustizia, a cura di R. Giordano, A. Panzarola, A. Police, S. Preziosi e M. Proto, Milano, 2022, 837, l’obiettivo non è tanto liberare il giudice dal “peso” del suo lavoro, bensì quello di “erogare prestazioni di giustizia più efficienti rispetto a quelle fornite dal giudice-persona”.

[81] In una dimensione “algoretica” (P. Benanti, Oracoli. Tra algoretica e algocrazia, Roma 2018 e del medesimo Autore Le macchine sapienti. Intelligenze artificiali e decisioni umane, Bologna, 2018) l’imperativo etico fondamentale per la machina sapiens diviene “dubita di te stessa”. Ciò postula la necessità di una nuova declinazione in chiave artificiale del dubbio metodico cartesiano introducendo, specie nel fronteggiare giudizi che recano evidenti implicazioni morali, attraverso l’apporto del fattore umano, un’incertezza che è normalmente aliena al ragionamento computazionale.

[82] Come acutamente sostenuto da A. Garapon, J. Lasségue, Giustizia digitale, cit., 261, lo sforzo richiesto agli operatori del diritto è di sottrarsi all’influenza di un mito quale quello della integrale calcolabilità del giuridico (e della sua infinita ed egemonica estensione). In proposito si osserva che “non si combatte un mito dimostrandone la falsità, ma stabilendo una distanza sufficiente a interpretare i fenomeni in altro modo”. Del resto, nota M. Luciani, La decisione giudiziaria robotica, cit., 893, “il problema non è di innovazione legislativa o di rivolgimento scientifico, ma di approccio culturale. E noi giuristi possiamo controllare (e criticare) la cultura di un giudice ben più facilmente di quanto possiamo fare con la cultura di un ingegnere, di un matematico, di un programmatore. Per esser chiari: se devo scegliere qualcuno di cui non fidarmi, personalmente, scelgo il giudice. E scelgo che sia un essere umano. Umano e consapevole dell’importanza, certo, ma anche dei limiti, della sua funzione”. Osservava già M. Heidegger, Saggi e discorsi, Milano, 1991, 21, “Il pericolo non è la tecnica. Non c’è nulla di demoniaco nella tecnica; c’è bensì il mistero della sua essenza. L’essenza della tecnica, in quanto è un destino del disvelamento, è il pericolo […] La minaccia per l’uomo non viene dalle macchine e dagli apparati tecnici, che possono anche avere effetti mortali. La minaccia vera ha già raggiunto l’uomo nella sua essenza. Il dominio dell’imposizione minaccia fondando la possibilità che all’uomo possa essere negato di raccogliersi ritornando in un disvelamento più originario e di esperire così l’appello di una verità più principiale”.

[83] S. Foà, G. Montedoro, Dialogo sulla nuova oggettività, cit., individuano nella forza implacabile dei processi di digitalizzazione uno dei fattori (probabilmente più potente) di “declino di ciò che è chiamato il soggetto moderno” anche nel campo del diritto pubblico.

[84] Così anche V. Tenore, L’intelligenza artificiale può sostituire un giudice?, cit.,  87 e ss..

[85] Come uno specchio. L’esortazione “conosci te stesso” (in greco antico γνῶθι σαυτόν, gnōthi sautón, o anche γνῶθι σεαυτόν, gnōthi seautón) è una massima religiosa greco antica iscritta nel tempio di Apollo a Delfi. Nel Prometeo incatenato di Eschilo, con analoga sentenza Oceano consiglia Prometeo: “θέλω τὰ λῷστα, καίπερ ὄντι ποικίλῳ.
γίγνωσκε σαυτὸν καὶ μεθάρμοσαι τρόπους νέους: νέος γὰρ καὶ τύραννος ἐν θεοῖς” (“Vedo sì, Prometeo, e voglio darti il consiglio migliore, anche se tu sei già astuto. Devi sempre sapere chi sei e adattarti alle regole nuove: perché nuovo è questo tiranno che domina tra gli dei”). Un monito ancora più profondo se si pensa che è rivolto a colui il quale, nella mitologia classica, rubò il fuoco agli dei per darlo al genere umano segnando l’inizio dell’era della tecnica.

[86] Sul punto si veda, tra tutti, la riflessione di G. Pascuzzi, La cittadinanza digitale. Competenze, diritti e regole per vivere in rete, Bologna, 2021, 41 e ss. e, in particolare, 84 e ss., ove, dopo aver offerto una tassonomia delle nuove competenze richieste al cittadino, si sofferma su quelle specifiche relative all’intelligenza artificiale.

[87] Come comprendere a grandi linee la logica di fondo e la struttura del sistema di IA impiegato, il rapporto tra input e output, essere consapevoli dei limiti euristici di cui può essere portatore il software.

[88] Secondo A. Garapon, J. Lessègue, La giustizia digitale, cit., 275, a giustificare la necessità di un apporto umano (ancorchè fallibile) nell’esercizio della funzione giurisdizionale è la qualità propriamente umana rappresentata dalla “saggezza pratica, la phronesis aristotelica” intesa come capacità di “promettere, di impegnarsi a cambiare sé stessi”.

[89] È l’importanza del prompt in sede di input, che condiziona inevitabilmente la resa dell’algoritmo. E, allora, sapere fare domande rimane una competenza di base, di taglio eminentemente umanistico, irrinunciabile per il giurista.

[90] La necessaria e perdurante centralità dell’uomo nel processo decisionale appare legata proprio alla constatazione della scissione esistente tra intelligenza artificiale e coscienza. In prospettiva non è detto che questo diaframma rimanga fermo (così Y.N. Harari, Homo Deus. Breve storia del futuro, nella traduzione di M. Piani, Milano, 2017, 484, secondo cui con lo sviluppo di forme di intelligenza artificiale, “l’intelligenza si sta affrancando dalla coscienza”; Sono riflessioni riprese di recente da M. Chiriatti, Incoscienza artificiale. Come fanno le macchine a prevedere per noi, Roma, 2022, osservando che “pensavamo che con l’IA fosse nato qualcosa, invece sta nascendo qualcuno”).

[91] In questo senso V. Giabardo, Il giudice e l’algoritmo (in difesa dell’umanità del giudicare), cit., propone un uso processuale delle emozioni in contrapposizione al sogno positivista della decisione robotizzata. Parla di un’”interazione uomo-macchina consapevole (sin dal primo momento della programmazione), vigilata e mite” M. Sciacca, Algoritmo e giustizia alla ricerca di una mite predittività, cit., 78, riprendendo all’evidenza l’insegnamento di G. Zagrebelsky, Il diritto mite, Torino, 1992, 213. E’ di quest’ultimo, infatti, l’idea  di un giudice chiamato ad un ruolo di garanzia  della complessità strutturale del diritto nello Stato costituzionale, cioè della necessaria, mite coesistenza di legge, diritti e giustizia”.

[92] L. Floridi, Etica dell’intelligenza artificiale. Sviluppi, opportunità sfide, Milano, 2022, 283-284, parla dell’IA come una forma di “intelligenza aumentata” capace di “migliorare e moltiplicare le possibilità dell’agire umano”. In S. Foà, G. Montedoro, Dialogo sulla nuova oggettività, cit., si auspica, in questo senso, un “antropomorfismo aumentato” in cui “le nostre capacità cognitive sono aumentate dalla macchina”.

[93] Di guisa che l’apporto dell’algoritmo più che fungere da “scorciatoia” per la decisione della controversia (attraverso un meccanismo mentale di tipo reattivo ed automatico) sia piuttosto da stimolo per l’utilizzo del nostro sistema riflessivo ed analitico (secondo la nota dicotomia elaborata dal premio Nobel D. Kahneman, Pensieri lenti e veloci, Milano, 2012).