Il diritto naturale come limite e contenuto dell’intelligenza artificiale. Prime riflessioni sul nuovo Regolamento Europeo “AI Act”.

Di Cristiano Iurilli -

SOMMARIO: 1. Diritto, etica ed intelligenza artificiale. 2. Limiti e ripensamenti del diritto nella tensione regolatoria all’IA. 3. Diritti umani e diritto naturale alla prova dell’intelligenza artificiale. L’incontro tra la natura dell’uomo, la natura della tecnologia e la natura del diritto. 4. I passi verso una regolamentazione comunitaria dell’IA. 5. Struttura e caratteri dell’AI Act. Sintesi. 6. L’oggetto della regolamentazione. La res tecnologica come prodotto o bene di consumo ed il diritto naturale.

1.Diritto, etica ed intelligenza artificiale.

L’impatto dell’utilizzo dell’intelligenza artificiale nel mondo del diritto, in ambito economico e finanziario, sulla società e sui diritti fondamentali dei consociati è un tema non nuovo che affonda le sue radici lontano nel tempo[1] e che è stato foriero di ampi dibattiti sia a livello nazionale che internazionale, coinvolgendo interessi pubblici e privati, siano essi ricondubili al mondo imprenditoriale che al campo dei diritti individuali dei consociati fruitori di quello che, già in tale sede introduttiva, riteniamo definire come un “prodotto”: l’intelligenza artificiale (IA).

Il dibattito, ancor più attuale a seguito dell’approvazione definitiva del Regolamento (UE) del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828, c.d. “legge sull’intelligenza artificiale”, abbraccia inevitabilmente aspetti tecnologici, economici, socio-politici, nonché questioni etiche e giuridiche.

Nel passaggio dall’“internet of things” all’“internet of everithing” e nel conseguente passaggio dall’analisi di uno strumento specifico (internet) all’analisi di un “continuum” [2] (IA) che caratterizza oramai la società e le vite dei consociati, mediante la creazione non di una realtà socio-giuridica parallela bensì modificando, integrando ed interagendo con la realtà definibile quasi “materiale” o “fisica”[3] (in contrapposizione alla realtà “artificiale”), il diritto positivo tende a voler regolamentare l’IA e le conseguenze del suo utilizzo nella società, scontrandosi tuttavia con il multiforme, fluido, dinamico[4] e spesso non categorizzabile (in relazione a classiche categorie giuridiche) ed a volte intangibile oggetto di una possibile ma necessaria normazione.

Il diritto dunque, nella sua relazione con le nuove tecnologie, rincorre un’esigenza regolatoria utilizzando concetti ed istituti classici, quali ad esempio le regole in tema di responsabilità civile, a volte dovendo reinventare un approccio della regola al fenomeno[5].

Ma, come detto, questa apprezzabile e doverosa tensione del diritto positivo (a fronte della quale si è anche discusso in dottrina di uno “…sviluppo di una letteratura giuridica non priva di autonomia[6]) potrebbe indurre ad una sorta di contrapposizione tra diritto artificiale (o positivo) e diritto naturale[7] (da non confondere, secondo San Tommaso, con la legge naturale[8] che probabilmente ne sarebbe il contenuto) che tuttavia avrebbe, a nostro avviso, la conseguenza di evidenziare ancor di più la limitatezza del diritto positivo e delle sue categorie tradizionali rispetto alla già richiamata fluidità, intangibilità, costante evoluzione e volubilità tecnologica dell’IA, punto di arrivo dell’evoluzione dell’informatica ma non punto finale, essendo essa in constante evoluzione.

Ci si deve dunque chiedere se, sul tema in esame, in relazione alla spinta regolatoria -anche e specialmente comunitaria- si debba o si possa ancora procedere ad una stridente contrapposizione tra etica, morale e diritto positivo, rectius tra diritto positivo e diritto naturale.

Ed ancora ci si deve chiedere se, in relazione alle problematiche afferenti l’IA, il diritto positivo possa ritenersi “autoreferenziale”, dunque in una visione settoriale dell’approccio normativo ed interpretativo, oppure si debba necessariamente ampliare, in funzione antropocentrica[9], l’approccio normativo generale, che tuttavia necessariamente tende a scontrarsi con i problemi relativi alla relazione tra ordine sociale ed ordine normativo, tra etica, legge naturale e diritto positivo, tra un’idea di bene e male e la regola giuridica che limita l’agire e contemporaneamente tutela e garantisce i diritti dei singoli, anche e specialmente nel campo del diritto privato.

E le difficoltà regolatorie ed interpretative aumentano ove l’oggetto della normazione sia caratterizzato dall’ “a-territorialità” del suo utilizzo, dall’immaterialità del bene strumentale e dunque dal suo riferirsi anche a valori etici internazionali spesso non comuni né condivisi a livello planetario, con conseguente difficoltà nella produzione di strumenti normativi comuni e condivisi: si pensi ad esempio alle problematiche afferenti la disciplina della concorrenza tra imprese a livello internazionale, al potere politico conseguente all’implementazione di strumenti avanzati di IA, allo sviluppo economico e, non per ultimo, alla tutela dei diritti fondamentali dei singoli consociati.

Problematiche queste ultime che spesso non trovano un fattor comune a livello internazionale.

Ed in tal senso, nella dottrina internazionale[10], si rileva come storicamente esista una relazione forte e complessa tra etica e diritto, evidenziando tuttavia come la diffusa confusione tra principi etici e giuridici nel campo dell’IA sia un fenomeno preoccupante per due ragioni principali: in primo luogo, rivelando una preoccupante mancanza di conoscenza di entrambe le discipline e, in secondo luogo, evidenziando come tale confusione venga utilizzata per affermare l’intercambiabilità tra principi etici e norme giuridiche.

Come è stato osservato, “l’etica è vista come l’opzione facile o soft che può aiutare a strutturare e dare significato alle iniziative di autoregolamentazione esistenti. In questo mondo, l’etica è la nuova autoregolamentazione del settore [11].

Ma è chiaro che l’interprete non possa arrivare alla conclusione circa la coincidenza tra principi giuridici ed etici bensì deve riflettere sulla loro interoperabilità, riconoscendone i rispettivi caratteri che non possono portare alla confusione tra obbligatorietà della norma e volontarietà nel seguire un principio etico.

L’etica è dunque necessaria, forse indispensabile, ma non sufficiente per affrontare la sfida dell’intelligenza artificiale.

Ma è altrettanto chiaro sottolineare la possibilità ed anzi l’esigenza di una possibile traduzione di principi etici in norma vincolante, con lo scopo di “… proteggere il dominio umano attraverso la regolamentazione o fissando obiettivi e misure per “mantenere” l’esistenza umana…[12].

Non a caso, sempre a livello internazionale, già nel secolo scorso si ragionava sui criteri da applicare per la realizzazione di un’efficace regolamentazione normativa dell’IA[13] quali il ragionamento per casistica ed analogie, il ragionamento limitato alle regole di diritto, la combinazione di differenti modalità di ragionamento, l’utilizzo di concetti a struttura aperta, il modellare la conoscenza basata sul senso comune.

2.Limiti e ripensamenti del diritto nella tensione regolatoria all’IA.

I tempi sono maturi per una fondazione organica del diritto della robotica, idonea a costituire manifesto della mediazione giuridica nel settore della intelligenza artificiale con particolare riguardo a quella self-learning, motore della self nuova rivoluzione industriale”.

Cosi argomenta Ugo Ruffolo in incipit ad un approfondimento sui fondamenti di un diritto della robotica[14] evidenziando come, in tema di IA, ci si troverebbe dinanzi a prefigurate evoluzioni normative non sempre concepite “in termini autenticamente sistematici” ed ancora rilevando che “…ogni cultura industriale dovrebbe poter tentare di perseguire una “politica del diritto” lungimirante, promuovendo la diffusione di una cultura giuridica avvertita che governi i vari settori in coerenza con il sistema, realizzando così sia l’ottimizzazione dei nuovi costi d’impresa che l’ottimo sociale quanto a copertura dei nuovi rischi[15].

La citata argomentazione porta necessariamente a riflettere sulla necessità di un approccio nuovo del diritto, a volte riconducibile al binomio soft law-hard law[16], in funzione di colmare possibili vuoti normativi dai quali possano discendere connessi vuoti di tutela, specialmente per i diritti fondamentali dei consociati, nel rispettabile tentativo di realizzare un sistema settoriale di norme afferenti il c.d. diritto della robotica.

Ma è altrettanto vero come già nella Carta della Robotica approvata nel febbraio del 2017 dal Parlamento Europeo[17], si rilevava che “l’autonomia di un robot può essere definita come la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna; (…) tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente; (…) nell’ipotesi in cui un robot possa prendere decisioni autonome, le norme tradizionali non sono sufficienti per attivare la responsabilità per i danni causati da un robot, in quanto non consentirebbero di determinare qual’è il soggetto cui incombe la responsabilità del risarcimento né di esigere da tale soggetto la riparazione dei danni causati”, ponendosi dunque in dubbio quella sorta di autoreferenzialità del diritto positivo tradizionale.

Se cioè, come correttamente rilevato[18], il diritto svolge (o dovrebbe poter svolgere) una funzione ordinante e di controllo per promuovere l’umanità, l’originalità e l’irripetibilità della persona umana, in stretto collegamento a principi già costituzionalmente consacrati certamente nel nostro ordinamento (ma probabilmente in maniera differente in altri Stati ed in altre culture giuridiche a livello mondiale), si pone il problema del limite, in sé strutturale, del diritto positivo a garantire  “…un ordine umano-centrico quale garanzia di una intelligenza artificiale[19].

Ci si deve domandare dunque se il diritto positivo debba ripensare a se stesso in funzione regolatoria dell’IA, se il ragionamento giuridico debba adattarsi all’IA e soprattutto come possa il diritto positivo che, per sua natura, cristallizza e lega una disposizione, specialmente se imperativa, al momento e contesto storico in cui essa sia promulgata, rispetto ad un prodotto (l’IA) che abbiamo inteso già definire come “fluido”[20] ed a volte intangibile, multiforme ed a cui risulta difficile relazionarsi normativamente vista anche la difficoltà concettuale di inserire l’IA in una determinata categoria giuridica.

Si pensi infatti alle seguenti caratteristiche dell’IA: la sua attività spesso non riesce ad essere agevolmente distinta da quella di un essere umano; la possibile difficoltà nel concepire la logica di fondo alla base di una decisione automatizzata; l’incertezza e la possibile non oggettività della decisione automatizzata a causa dei Bias (pregiudizi); l’utilizzo frequente di una logica probabilistica; la possibile autonomia di giudizio in carenza di un controllo umano adeguato. Sono dunque tali caratteri che hanno l’idoneità a mettere in crisi la centralità del diritto positivo nella regolamentazione del fenomeno in esame.

E sul tema, si pensi ancora alla circostanza che l’IA può essere “corpo” fisico[21] (sia esso antropomorfo o meno), elemento virtuale, prodotto esso stesso o parte di un prodotto ovvero ancora elemento tecnologico che diviene parte integrante di un essere umano, quale elemento tecnologico inserito in un elemento biologico.

Dunque si pone il problema della regolamentazione dell’IA mediante un approccio normativo che imponga una divisione tra ciò che è umano e ciò che è artificiale, ove invece l’IA stessa è concetto collegato alla natura ed all’uomo, in quanto da esso derivante: è essa stessa strumento dell’uomo, che con i caratteri dell’uomo si alimenta, che con l’apprendimento del linguaggio dell’uomo[22] riesce a risolvere problemi o ad interagire con l’umano, mediante un modello di “apprendimento supervisionato” (supervised learning), ove i dati (le informazioni, le conoscenze) servono ad “addestrare”[23] il modello prima di poterlo utilizzare, ma che da strumento dell’uomo può tradursi in strumento che si confonde con l’uomo e la natura e che ad essa si potrebbe opporre.

Come cioè evidenziato dalla più recente dottrina[24] (che a sua volta richiama un noto scritto di Gunter Anders[25]) l’IA non è semplicemente un mezzo ma un mondo, e “…mondo è qualcosa di diverso da mezzo, appartiene a una categoria diversa”[26], insinuando il dubbio, plausibile, come il diritto oggi si trovi non a regolamentare un prodotto bensì a regolamentare un nuovo mondo[27], caratterizzato da valori etici, morali ma inevitabilmente da norme di diritto positivo.

Quid iuris?

3.Diritti umani e diritto naturale alla prova dell’intelligenza artificiale. L’incontro tra la natura dell’uomo, la natura della tecnologia e la natura del diritto.

Non credo sia revocabile in dubbio come lo studio delle problematiche connesse all’IA debba essere affrontato non solo da un punto di vista giuridico bensì anche sociologico e filosofico, con una tensione a non distinguere o delimitare i rispettivi ambiti: ciò in quanto è l’evidenza dei tratti caratterizzanti l’IA ed il suo utilizzo che porta a dover rilevare il rischio di confondere un tratto essenziale dell’essere umano, l’intelligenza[28], con un tratto (questa volta) qualificante un quid, la tecnologia IA, identificabile come bene, come prodotto, come sistema che si muove al di fuori del dominio della natura ma che in essa produce effetti, giuridicamente, socialmente ed eticamente rilevanti e, dunque, meritevoli di attenta regolamentazione.

Dunque il rischio di non poter predeterminare in anticipo gli effetti del più ampio utilizzo di un “sistema IA”, probabilmente intelligente, scarsamente senziente[29], sicuramente meccanico e, dunque, “naturalisticamente” opposto all’umanità[30], deve comportare una regola, un limite giuridico su base naturale, dal quale far conseguire un’auspicabile e naturalmente corretta interazione tra natura e tecnologia, senza tuttavia giungere a disquisire di “identità e coscienza meccanica”[31] bensì soffermandosi su quelli che da molti sono stati definiti come “nuovi diritti”[32] o come “diritti delle generazioni future”[33], conseguenza di nuove istanze sociali e dell’innovazione tecnologica: si pensi, a titolo di esempio, al diritto a conoscere la natura umana o artificiale di un interlocutore, al diritto a una spiegazione dei risultati di un sistema ed  al diritto a una soglia minima di controllo umano sulla tecnologia[34], diritti i quali, in una visione civilistica, possono e debbono ricondursi all’alveo delle situazioni giuridiche soggettive, come tali tutelate dall’ordinamento.

Se l’uomo ed i diritti umani divengono dunque limite all’“umanoide”, riteniamo che anche il giurista si debba confrontare in un nuovo incontro tra diritto naturale, definito dalla più recente dottrina come “espressione della recta ratio, e il diritto positivo critico, effettivo”.[35]

Se storicamente fenomeni naturali insiti nella sfera individuale sono stati traslati ed accolti prima nella coscienza sociale e poi nel mondo (spesso rigido) del diritto, fenomeni tecnologici già accolti nella coscienza sociale, ma anche politica ed economica a livello globale, non possono oggi prescindere da una loro connessione al diritto naturale.

Se cioè si è sovente assistito ad un incontro-scontro, a volte anche solo dialettico, tra diritto naturale e diritto positivo[36], e se si è assistito, in passato, al fenomeno della positivizzazione in norma del diritto naturale, l’emersione delle nuove tecnologie potrebbe portare anche al processo inverso, ovvero alla naturalizzazione del diritto positivo, sino a poter giungere alla conclusione che, in tema di IA, la natura umana ed il diritto naturale divengono elementi strutturali di una legislazione di settore.

Peraltro, i sistemi di IA ed il diritto naturale, quest’ultimo nella sua più moderna visione, mostrano un carattere in comune: la loro non immutabilità, quest’ultima caratterizzante sia l’essenza dell’IA sia la nuova visione del diritto naturale c.d. “progressivo”[37], concetto con cui si intende sottolinearne la sua plasticità e la variabilità nonché la sua sottomissione al mutamento, poiché è la natura stessa ad essere mutevole e diversa nelle sue forme concrete, storiche e individuali.

Orbene, al fine di chiarire le motivazioni di tale impostazione si vogliono innanzitutto ricordare in tale sede gli scritti di Francesco Viola, funzionali ad evidenziare un necessario ripensamento dei tratti essenziali della tradizione giusnaturalista, “…per liberarla dalle determinazioni storiche non più in vigore, per ripensarla alla luce delle nuove attualizzazioni e per raggiungere una comprensione più approfondita di essa [38].

Nell’evoluzione dell’approccio al diritto naturale, si è cioè evidenziato innanzitutto la stretta connessione ed il rapporto tra diritti umani e diritto naturale, ove un diritto umano è il frutto della connessione tra un diritto morale ed un processo di positivizzazione, pur se (come correttamente rilevato[39]) “L’origine non positiva dei diritti umani e il non essere disponibili alla volontà del potere politico hanno fatto pensare che siano essi a portare nel cuore degli ordinamenti giuridici le istanze del diritto naturale”.

Tuttavia, in questo nuovo approccio al diritto naturale, questa teoria ha inteso dimostrare come sia proprio il processo di positivizzazione a condurre i diritti morali nell’alveo del diritto naturale, che dunque non può più ritenersi appartenere al metagiuridico bensì direttamente riconducibile al campo del “giuridico”.

In tal senso, in una nuova visione della relazione tra diritto positivo e diritto naturale, lo studio in esame ha inteso da un lato riesaminare il concetto di positività del diritto, agganciandolo ad “elementi ontologici e deontologici[40], affermando altresì come il diritto naturale venga ad identificarsi con il vero senso del giuridico, e dunque accogliendo una sua visione solo apparentemente giuspositivistica, andandolo a definire  come “…natura del diritto positivo, delle sue condizioni di praticabilità della sua fedeltà a se stesso, cioè in una parola della sua ragion d’essere[41].

In tale prospettiva, e nell’ottica di completare l’approfondimento della relazione tra diritto positivo e diritto naturale, si ritiene opportuno altresì citare il documento della Commissione Teleologica Internazionale risalente all’anno 2009 (“Alla ricerca di un’etica universale: nuovo sguardo alla legge naturale[42]) che, intendendo contribuire al dibattito sulla ricerca di un’etica universale ed ispirandosi alla dottrina della legge naturale elaborata da San Tommaso d’Aquino, propone una visione di quest’ultima come fondamento sempre valido dell’etica[43].

È in tal sede di nostro interesse richiamare quanto rilevato nel documento[44], ove la Commissione intende entrare nello spazio regolato dal diritto, ponendo le persone al centro dell’ordine politico e sociale, quale fine e non quale mezzo, individuando la legge naturale come l’orizzonte normativo nel quale l’ordine politico è chiamato a muoversi ed evidenziando le relazioni tra legge naturale, diritto naturale e diritto positivo.

La legge naturale (lex naturalis) si esprimerebbe infatti come diritto naturale (ius naturale) quando si considerano le relazioni di giustizia tra esseri umani: relazioni “tra le persone fisiche e morali, tra le persone e il potere politico, relazioni di tutti con la legge positiva[45].

Dunque in tal senso il diritto naturale viene definito come ancoraggio delle leggi umane alla legge naturale, come orizzonte in funzione del quale il legislatore umano dovrebbe regolarsi nell’emanazione di una norma di diritto positivo che dovrebbe sforzarsi di attuare le esigenze del diritto naturale[46].

Sulla base di quanto richiamato si ritiene dunque di interesse approfondire la relazione tra la natura dell’uomo, la natura della tecnologia e la natura del diritto, ove la natura della tecnologia, regolamentata dal diritto positivo, non può sottrarsi all’etica della vita umana, in una visione relazionale tra diritto naturale e diritto positivo ove quest’ultimo entrerebbe necessariamente in contatto con i valori morali di cui la legge naturale è espressione.

In questo contesto si inserisce il nuovo Regolamento Europeo “AI Act”.

4.I passi verso una regolamentazione comunitaria dell’IA.

Il percorso che probabilmente in un futuro (credo) non certamente prossimo porterà a disquisire, forse anche a livello planetario, di un diritto dell’intelligenza artificiale, ha certamente visto l’Europa come suo (ma non unico) protagonista[47], mediante la recentissima approvazione definitiva, da parte del Consiglio dell’Unione Europea[48], del Regolamento Europeo sull’intelligenza artificiale (AI Act), avvenuta il 21 maggio 2024.

Il provvedimento ad oggi intende interpretare e regolamentare un nuovo fenomeno tecnologico con categorie giuridiche tradizionali, analogamente a quanto già di recente avvenuto con il Data governace Act[49], il Data Act[50], il Digital Market Act[51] ed il  Digital Service Act[52], espressione certamente di una strategia nel campo economico e giuridico relativamente a tutte le dinamiche concernenti i più moderni processi di  digitalizzazione, ma che tuttavia -ad oggi- non possono non utilizzare categorie giuridiche tradizionali in funzione di regolamentazione.

L’iter che ha portato all’approvazione dell’AI Act è stato caratterizzato da una serie di atti i quali fanno facilmente comprendere quale sia la difficoltà regolatoria di un fenomeno di difficile strutturazione giuridica.

Numerose sono state infatti le iniziative della Commissione Europea, del Parlamento Europeo e del Consiglio d’Europa[53].

Si vogliono brevemente ricordare taluni passaggi.

Sin dal 2018 la Commissione europea[54] annunciava la strategia europea per l’IA, non solo evidenziando tra le priorità da raggiungere quella di assicurare un quadro etico[55] e giuridico adeguato fondato sui valori dell’Unione e coerente con la Carta dei diritti fondamentali[56], bensì fornendo anche una prima definizione di IA, indicata come “sistema che mostra un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi. I sistemi basati sull’IA possono consistere solo in software che agiscono nel mondo virtuale (per esempio assistenti vocali, software per l’analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale); oppure incorporare l’IA in dispositivi hardware (per esempio in robot avanzati, auto a guida autonoma, droni o applicazioni dell’Internet delle cose). Utilizziamo l’IA quotidianamente, per esempio per tradurre le lingue, generare sottotitoli nei video o bloccare lo spam delle email”.

Nel 2019 la Commissione[57] si soffermava poi sui sette requisiti che il suo Gruppo indipendente di esperti ad alto livello sull’IA individuava per stabilire l’affidabilità delle applicazioni di intelligenza artificiale, quali l’intervento e sorveglianza umani, la robustezza tecnica e sicurezza, la riservatezza e governance dei dati, la trasparenza, la diversità, la  non discriminazione ed equità, il benessere sociale e ambientale e l’accountability, mentre nel 2020 veniva pubblicato il Libro bianco sull’intelligenza artificiale[58], ove ancora una volta non solo si sottolineava la necessità di creare un ecosistema di fiducia unico[59] bensì -ricordando come coloro che si occupino di sviluppare e applicare l’IA siano soggetti alla legislazione europea in materia di diritti fondamentali (ad esempio per quanto riguarda la protezione dei dati, la privacy, la non discriminazione) e di protezione dei consumatori e alle norme in materia di responsabilità e di sicurezza dei prodotti- già evidenziava come determinate caratteristiche specifiche dell’IA (ad esempio l’opacità) potrebbero rendere più difficile l’applicazione e il rispetto di tali legislazione, evidenziando come “…Considerata la rapida evoluzione dell’IA, il quadro normativo deve lasciare spazio a ulteriori sviluppi”.

Ovvero ancora si pensi alla Risoluzione del Parlamento europeo risalente al 2017[60] sulla relazione tra le norme di diritto civile e la robotica, ove innegabilmente si ponevano sul medesimo piano “… le conseguenze legali ed etiche” inerenti l’utilizzo delle innovazioni tecnologiche, ove si affermava che gli sviluppi nel campo della robotica e dell’intelligenza artificiale dovrebbero essere pensati in modo tale da preservare la dignità, l’autonomia e l’autodeterminazione degli individui, soprattutto nei campi dell’assistenza e della compagnia da parte di esseri umani e nel contesto delle apparecchiature mediche atte alla “riparazione” o al “miglioramento” degli esseri umani, ove già si rilevava come fossero necessarie una serie di norme che disciplinassero la responsabilità, la trasparenza e l’assunzione di responsabilità e che riflettessero “i valori intrinsecamente europei, universali e umanistici che caratterizzano il contributo dell’Europa alla società”, ed ove ancora si sollevava la questione sulla (presunta o possibile) autonomia decisionale dei robot connessa alla corretta identificazione delle loro natura, alla luce delle categorie giuridiche esistenti con eventuale necessità di creare una nuova categoria con caratteristiche specifiche e implicazioni proprie.

Si pensi poi alla Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi[61], ove la Commissione europea per l’efficacia della giustizia (CEPEJ) del Consiglio d’Europa fissava alcuni principi etici relativi all’uso dell’IA nei sistemi giudiziari, rilevando l’esigenza di un uso conforme alla Convenzione europea dei diritti dell’uomo (CEDU) ed alla Convenzione del Consiglio d’Europa per la protezione dei dati a carattere personale, ed alla Raccomandazione del Comitato dei Ministri del Consiglio d’Europa agli Stati membri sugli impatti dei sistemi algoritmici sui diritti umani[62], ove venivano illustrati i rischi di violazione dei diritti umani da parte di sistemi basati sugli algoritmi individuando delle linee guida elaborate con funzione preventiva.

Questo lungo susseguirsi di atti, raccomandazioni e documenti, trovava il suo primo importante punto di arrivo il 21 aprile 2021, quando la Commissione Europea, seguendo l‘iter previsto per la c.d. procedura legislativa ordinaria, rendeva pubblica una proposta di Regolamento indirizzata al Parlamento europeo e al Consiglio “che stabilisce regole armonizzate sull‘intelligenza artificiale (Legge sull‘intelligenza artificiale) e modifica alcuni atti legislativi dell‘Unione”, coronamento di un lungo percorso di elaborazione normativa con il dichiarato obiettivo di affrontare i pericoli connessi ad alcune applicazioni dell‘intelligenza artificiale, promuovendo, allo stesso tempo, lo sviluppo e la diffusione di tale tecnologia senza frustrare il mercato, mediante  un approccio basato sulla gestione del rischio, mutuando un‘impostazione già adottata, in altre forme, in precedenti atti normativi, a cominciare dal GDPR.

 5. Struttura e caratteri dell’AI Act. Sintesi.

Nell’analisi strutturale del Regolamento si concorda con quella dottrina che ha inteso sottolineare non solo l’intento del legislatore comunitario di procedere ad una regolamentazione che vada anche oltre i confini comunitari[63] ma che ha voluto anche rimarcare l’approccio orizzontale del testo: tale approccio cioè non risulta essere finalizzato ad affrontare specifici problemi bensì intende regolamentare trasversalmente qualunque settore, e ciò in coerenza con la citata fluidità del concetto di IA e molteplicità dei campi di sua applicazione, mediante dunque uno schema normativo che non riesce, inevitabilmente, ad offrire risposte specifiche a problemi specifici.

E non è un caso che, al Considerando 4, si offre una prima definizione certamente metagiuridica di IA, intesa come “una famiglia di tecnologie in rapida evoluzione che contribuisce al conseguimento di un’ampia gamma di benefici a livello economico, ambientale e sociale nell’intero spettro delle attività industriali e sociali”, per poi affrontare, in numerosi passaggi introduttivi, il problema della tutela dei diritti fondamentali[64] come scopo ultimo della regolamentazione, mediante ampi riferimenti  alle norme in tema di tutela della vita privata, protezione dei dati e trasparenza, intesa quest’ultima nel senso che i sistemi di IA sono sviluppati e utilizzati in modo da consentire un’adeguata tracciabilità e spiegabilità, rendendo gli esseri umani consapevoli del fatto di comunicare o interagire con un sistema di IA e informando debitamente i deployer delle capacità e dei limiti di tale sistema di IA e le persone interessate dei loro diritti.

Ma il testo va oltre i vari richiami ai diritti fondamentali dell’uomo in una visione culturalmente planetaria[65], indirettamente riconducendo l’IA al concetto di pratica commerciale, rectius pratica commerciale scorretta di cui alla direttiva 2005/29/CE, allorquando (al Considerando 29) si riconosce come le tecniche di manipolazione basate sull’IA possono essere utilizzate per persuadere le persone ad adottare comportamenti indesiderati o per indurle con l’inganno a prendere decisioni in modo da sovvertirne e pregiudicarne l’autonomia, il processo decisionale e la scelta[66].

Ad ogni modo, è dato incontestabile come il Regolamento, mutuando uno schema strutturale proprio di numerose normative di stampo comunitario (si pensi al G.D.P.R. od ancora alla disciplina inerente l’antiriciclaggio bancario e finanziario), affronti la tematica regolatoria mediante il c.d. risk based approach, andando a suddividere le applicazioni dell‘intelligenza artificiale in classi di rischio, sottoponendo ciascuna di esse a un differente  regime normativo, individuando applicazioni dell‘intelligenza artificiale vietate nel contesto dell‘Unione a causa della loro potenziale lesività della dignità della persona e di un’ampia  gamma di diritti individuali[67]; elencando applicazioni dell‘intelligenza artificiale (art. 6) considerate ad alto rischio[68] (mediante l’utilizzo di criteri quali, ex multis: la finalità prevista del sistema di IA; la misura in cui un sistema di IA è stato usato o è probabile che sarà usato; la natura e la quantità di dati trattati e utilizzati dal sistema di IA, in particolare l’eventualità che siano trattate categorie particolari di dati personali; la misura in cui il sistema di IA agisce autonomamente e la possibilità che un essere umano annulli una decisione o raccomandazione che potrebbe causare un danno potenziale; la portata potenziale di tale danno o di tale impatto negativo, in particolare in termini di intensità e capacità di incidere su più persone o di incidere in modo sproporzionato su un particolare gruppo di persone; la misura in cui esiste uno squilibrio di potere o le persone che potrebbero subire il danno o l’impatto negativo si trovano in una posizione vulnerabile rispetto al deployer di un sistema di IA, in particolare a causa della condizione, autorità, conoscenza, situazione economica o sociale o età), per poi sottolineare, in via residuale, i casi in cui un sistema di IA non è considerato ad alto rischio, se non presenti un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale[69].

6.L’oggetto della regolamentazione. La res tecnologica come prodotto o bene di consumo ed il diritto naturale.

Se dunque non è revocabile in dubbio che ci troviamo di fronte ad un imponente sforzo regolatorio da parte del diritto positivo, l’anello mancante dell’approfondimento riguarda l’oggetto della regolamentazione, ovvero il suo ambito oggettivo ovvero ancora lo strumento che si vuole regolamentare e, dunque, la definizione di intelligenza artificiale che, proprio a causa del suo carattere che abbiamo inteso definire come “fluido”, potrebbe essere intesa come bene, come servizio, come prodotto, come strumento utilizzato nella costumer experience o, come già rilevato, come entità autonoma dotata di autoreferenzialità non solo tecnologica bensì anche giuridica.

È dunque necessario approfondire l’aspetto definitorio per comprendere quali relazioni possano emergere tra una regolazione su base positivistica ed il diritto naturale, partendo proprio dalla vasta gamma di applicazioni in cui l’IA può trovare utilizzo nei più vari settori, quali ad esempio: l’assistenza sanitaria; la diagnosi medica; la medicina personalizzata, mediante l’utilizzo di dati genetici; la gestione delle cure; l’automazione industriale e robotica; l’ottimizzazione della produzione e delle catene di approvvigionamento; la finanza e gli investimenti e il trading algoritmico; i trasporti e la logistica; la guida autonoma; il riconoscimento vocale ed il linguaggio naturale; l’e-commerce ed il marketing, mediante l’utilizzo di raccomandazioni personalizzate; l’analisi dei sentimenti e la valutazione delle opinioni degli utenti sui social media o nelle recensioni dei prodotti; i giochi e l’intrattenimento.

E se questi sono solo alcuni esempi sulle applicazioni dell’IA, si inizia innanzitutto a comprendere la struttura c.d. orizzontale del Regolamento, la quale deriva proprio dalla difficoltà di limitare o adeguare specificamente lo strumento normativo a ben individuate esigenze.

Ed è questo il motivo per il quale la maggior parte della letteratura scientifica di settore è pressoché concorde nel ritenere che non esista una definizione universalmente riconosciuta di intelligenza artificiale[70], ed ove l‘ambiguità linguistica del termine porta inevitabilmente all’ambiguità giuridica[71], sia per ipotesi di strumenti certamente riconducibili in generale all’ambito delle nuove tecnologie, ma che nulla hanno a che vedere con l’IA pur essendo proposti su mercato come tale (probabilmente per motivi di marketing), sia in relazione a veri strumenti di IA che sono quotidianamente utilizzati dalle persone comuni, spesso inconsapevoli, ed a cui spesso si è affiancata la definizione soggettivistica di “make computer thinks” o “machines with minds[72], sino a giungere alla definizione contenuta nel Regolamento all’art. 3, secondo cui il sistema di IA è “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

Non credo che tale definizione sia dirimente al fine di individuare l’essenza dell’IA in funzione di una regolazione del diritto positivo.

È tuttavia necessario comprendere come, almeno ad oggi, non si possa ancora parlare di soggettività giuridica dell’IA, mediante un approcio volto a facilitare l’eventuale attribuzione di responsabilità in capo ad un entità artificiale e non in capo ad uno sviluppatore/produttore bensì, utilizzando le categorie giuridiche esistenti, considerare l’IA come prodotto, anzi come bene di consumo, come bene dotato di materialità ove l’IA sia contenuta in un bene fisico, come strumento o servizio nel caso di utilizzo di una piattaforma digitale, come elemento artificiale che diviene biologico ove sia inserito in un corpo umano e ne diventi parte integrante o come bene immateriale, riconducibile ad un software.

E certo non può più affermarsi, ad esempio, che il software -specialmente se collegato o interconnesso ad un bene materiale- ma in generale anche i contenuti digitali di un servizio, non possano essere considerati bene di consumo ovvero ancora che i servizi a contenuto digitale non possano essere considerati rilevanti ai fini della determinazione di una pratica commerciale scorretta ai sensi del codice del consumo, argomenti questi dotati di stridente attualità, non solo in quanto oggetto di studi ed interpretazioni da parte della dottrina[73] bensì di nuove scelte normative: si pensi ad esempio all’art. 18 del codice del consumo, in tema di pratiche commerciali scorrette, ove è contenuta la definizione di mercato on line, inteso come “servizio che utilizza un software, compresi siti web, parte di siti web o un’applicazione, gestito da o per conto del professionista, che permette ai consumatori di concludere contratti a distanza con altri professionisti o consumatori”, ed all’art. 22, commi 4 bis) e 4 e bis) in tema di omissioni ingannevoli su informazione relativa a prodotti digitali, nonché all’art.45 contenente la definizione di bene inteso come “qualsiasi bene mobile materiale che incorpora, o è interconnesso con, un contenuto digitale o un servizio digitale in modo tale che la mancanza di detto contenuto digitale o servizio digitale impedirebbe lo svolgimento delle funzioni proprie del bene, anche denominati beni con elementi digitali”, definizione riproposta nell’art. 128 in tema di garanzie nella vendita di beni di consumo.

O ancora si pensi alla definizione di servizio digitale di cui al citato art. 45, comma 1 q bis), secondo cui servizio digitale è da intendersi come servizio che consente al consumatore di creare, trasformare, archiviare i dati o di accedervi in formato digitale oppure come servizio che consente la condivisione di dati in formato digitale, caricati o creati dal consumatore e da altri utenti di tale servizio, o qualsiasi altra interazione con tali dati; o ancora all’art. 130 comma 2 del medesimo codice, contenente specifici obblighi di conformità, in funzione della corretta informazione afferente i servizi a contenuto digitale, ed all’art. 133, in tema di responsabilità del venditore di servizi digitali ove si stabilisce che “quando il contratto di vendita prevede la fornitura continuativa del contenuto digitale o del servizio digitale per un periodo di tempo, il venditore è responsabile anche per qualsiasi difetto di conformità del contenuto digitale o del servizio digitale che si verifica o si manifesta entro due anni dal momento della consegna dei beni con elementi digitali”.

Ed ancora si pensi al Titolo Terzo, Capo I-bis del codice del consumo, rubricato “Dei contratti di fornitura di contenuto digitale e di servizi digitali” di cui agli articoli da 135-octies all’art. 135-vicies ter[74], ove all’art. 135 octies, anche in tema di “conformità del contenuto digitale o del servizio digitale”, si afferma che “Le disposizioni del presente capo si applicano a qualsiasi contratto in cui il professionista fornisce, o si obbliga a fornire, un contenuto digitale o un servizio digitale al consumatore e il consumatore corrisponde un prezzo o si obbliga a corrispondere un prezzo”.

Ma se ciò potesse rispondere ad un percorso interpretativo corretto, e cioè che l’IA sia considerabile come bene di consumo, ci si dovrebbe chiedere quali siano i criteri per valutarne la conformità o per valutare la correttezza di una pratica commerciale realizzata mediante IA, e quali siano dunque i rischi connessi al detto utilizzo, rischi identificabili dunque come non conformità contrattuali.

Ebbene, ad oggi, vista la multidisciplinarietà delle applicazioni IA, l’assenza di una normazione specifica che individui i suoi caratteri essenziali e, dunque, i criteri per valutarne la conformità, vista altresì l’attuale mancanza di previsione espressa dell’IA nella disciplina di cui agli artt. 128 e ss. del codice del consumo, e stante unicamente la rilevanza assegnata, in sede di Regolamento comunitario, al rischio connesso all’utilizzo dell’IA, che dunque deve considerarsi oggi come unico parametro di conformità/difformità certo e specifico, riteniamo che sia proprio il diritto naturale e la lex naturalis in esso insita ad essere limite all’IA ma al tempo stesso suo contenuto.

Limite in quanto delimitante i sistemi IA rispetto alla categoria del bene e del male[75] in funzione della tutela della natura umana.

Contenuto ed essenza stessa in quanto qualificabile come strumento per valutare la conformità dell’IA e, dunque, la sua non conformità.

Le leggi naturali o morali sono dunque quel complesso di prescrizioni che discendono dal bene considerato come bene supremo, tale cioè che tutti gli altri beni sono ad esso subordinati, come mezzi rispetto al fine. Le leggi naturali non prescrivono azioni buone in sé stesse, ma azioni buone relativamente a un certo fine: questo fine è la pace o la conservazione della vita”. [76]

[1] Il concetto di “Apprendimento Automatico”, “Machine Learning”, “Rete neurale”, alla base del moderno “Deep Learning” troverebbe le proprie fondamenta in studi che risalgono agli anni 60 e in importanti evoluzioni e risultati della ricerca negli anni 80. Ma ancor prima, si ricordino i noti scritti di TURING A.M., Computing Machinery and Intelligence, in Mind, 59, 1950, 433.

[2] PAJNO A., Prefazione. La costruzione dell’infosfera e le conseguenze sul diritto, in Intelligenza artificiale e diritto: una rivoluzione? Vol.I, Bologna, 2022, 9.

[3] PAJNO A., op. cit., 11, parla di re-ontologizzazione o re-ingegnerizzazione della realtà, “…che non consiste soltanto nello strutturare o disegnare diversamente un sistema o la società, ma nel trasformare profondamente la sua natura intrinseca”.

[4] THIERER A., Permissionless Innovation: The Continuing Case for Comprehensive Technological Freedom, Arlington, 2016.

[5] PAJNO A., BRASSINI M., DE GREGORIO G., MACCHIA M., PATTI F.P., POLLICINO O., QUATTROCOLO S., SIMEOLI D., SIRENA P., AI: profili giuridici. Intelligenza artificiale: criticità emergenti e sfide per il giurista, in BioLaw journal, 3, 2019, ripercorrono il pensiero di Lessing (LESSING L., Code and other Laws of Cyberspace, Basic Books, 1999), evidenziando come “…il diritto fa fatica a imporre il rispetto delle sue regole nella tecnologia e dunque le sue finalità non paiono trovare soddisfazione in autonomia”.

[6] In tal senso, ALPA G., L’intelligenza artificiale. Il contesto giuridico, Modena, 2021.

[7] FROSINI V., Cibernetica, diritto e società, Milano, 1966, 14.

[8] Secondo VIOLA F., I diritti umani alla prova del diritto naturale, in Persona y derecho, 1990, 110, “…il concetto di legge naturale non è giuridico ma squisitamente morale”.

[9] Nel considerando 1) del Regolamento si legge infatti che “Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso di sistemi di intelligenza artificiale (sistemi di IA) nell’Unione, in conformità dei valori dell’Unione, promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea (la “Carta”), compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, contro gli effetti nocivi dei sistemi di IA nell’Unione nonché promuovere l’innovazione”.

[10] ROBLES CARRILLO M., Artificial intelligence: From ethics to law, in Telecommunications Policy, 2020, 44, che a sua volta cita gli scritti di P. Boddington, Towards a code of ethics for artificial intelligence, Oxford: Springer, 2017, 25.

[11] WAGNER B., Ethics as an escape from regulation: From ethics-washing to ethics-shopping? In M. Hildebrandt (Ed.), Being Profiling. Cogitas ergo sum. Amsterdam University Press, 2018, 1 e ss.

[12] In tal senso GONENC GURKAYNAK, ILAY YILMAZ, GUNES HAKSEVER. Stifling artificial intelligence: Human perils, in sciencedirect.com, 2016.

[13] RISSLAND E. L., Artificial Intelligence and Law: Stepping Stones to a Model of Legal Reasoning, in The Yale law journal, vol. 99, n. 8 (giugno 1990), 1957-1981, in spec. 1958 e 1963.

[14] RUFFOLO U. (a cura di), Intelligenza artificiale e responsabilità. Responsabilità “da algoritmo”? A.I. e automobili self-driving, automazione produttiva, robotizzazione medicofarmaceutica A.I. e attività contrattuali. Le tendenze e discipline unionali, Milano, 2017, 1 e ss.

[15] RUFFOLO U., op. cit., 3.

[16] Il soft law definisce categorie (varie) di atti caratterizzati da un certo effetto giuridico: non hanno efficacia vincolante, non sono direttamente applicabili dalle corti, e possono realizzare solo alcuni tipi di effetti (in tal senso, FERRARESE M.G., Inventiva giuridica e Spazi nel mondo globale, Roma-Bari, 2006, spec. 99 ss.). Per un’approfondita analisi di tale dimensione della governance dell’IA, PARONA L., Prospettive europee e internazionali di regolazione dell’intelligenza artificiale tra principi etici, “soft law” e “self regulation, in Rivista della regolazione dei mercati, 1, 2020, 70-93.

[17] P8TA (2017)0051 “Norme di diritto civile sulla robotica, Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica” (2015/2103(INL). Il Parlamento affronta un ampio spettro di problematiche, che spazia dai principi che dovrebbero essere rispettati nell’uso civile della robotica avanzata, alla questione, centrale, del c.d. responsibility gap per i danni arrecati dai robot – tra cui, paradigmaticamente, quelli medici o per l’assistenza ed i mezzi di trasporto autonomi – con la correlata ipotesi di istituzione di una personalità elettronica dei c.d. agenti software. Ed ancora la raccomandazione si diffonde su scenari, di grande respiro, concernenti la ricerca, l’innovazione, l’educazione, il lavoro, l’impatto ambientale, gli aspetti internazionali (in tal senso e sul tema, PASSAGNOLI G., Ragionamento giuridico e tutele nell’intelligenza artificiale, in Persona e Mercato, 2019/3, 79.

[18] ALPINI, A. Sull’approccio umano-centrico all’intelligenza artificiale. Riflessioni a margine del Progetto europeo di orientamenti etici per una IA affidabile, in Comparazione e diritto civile, 2019, 1 e ss.

[19] ALPINI A., op. cit., 2.

[20] Come si legge in TRAVERSO P., Breve introduzione tecnica all’Intelligenza Artificiale, in Aa. Vv., Diritto e intelligenza artificiale, Sezione monografica – DPCE ONLINE, 2022, 157, “Oliviero Stock, uno dei più grandi e riconosciuti ricercatori in Intelligenza Artificiale, ha affermato in una recente intervista che se chiedessimo a 100 ricercatori di AI di definire l’AI, avremmo (forse addirittura più di) 100 definizioni diverse”.

[21] D’ALOIA A., Ripensare il diritto nel tempo dell’intelligenza artificiale, in Intelligenza artificiale e diritto: una rivoluzione? Vol.I, Bologna, 2022, 79.

[22] Si pensi al funzionamento del noto strumento di IA, “Chat GTP” che genera risposte simili a quelle umane su input degli utenti e che utilizza le reti neurali per imitare la struttura del cervello simulando il comportamento umano, mediante l’utilizzo del c.d.  “Large Language Model (LLM)”.

[23] Il training è dunque umano e non artificiale, ed ove i “Pregiudizi (Bias)” causati dai dati di addestramento, potrebbero indurre ad una visione parziale della realtà e indurre a conclusioni parziali, non neutrali e oggettive, ed ove ancora, un intervento malizioso umano potrebbe facilmente trarre in inganno una rete neurale.

[24] D’ALOIA A., op. cit., 83.

[25] ANDERS G., L’Uomo è antiquato. I: Considerazioni sull’anima nell’epoca della seconda rivoluzione industriale, Torino, 2003.

[26] ANDERS G., op. cit., 38.

[27] Secondo D’ALOIA, op. cit., 89, “Il diritto è investito in pieno da questo nuovo mondo, che contemporaneamente si pone come risorsa e come problema”. Secondo TRAVERSO P., op. cit., 158, “… un Sistema di AI deve essere in grado di percepire l’ambiente circostante, analizzarlo e comprenderlo, ragionare e prendere delle decisioni, con un certo livello di autonomia, e compiere delle azioni nell’ambiente. Anche se molto di alto livello, questa definizione ci pone già degli interessanti interrogativi che hanno a che fare con l’aspetto giuridico e normativo dell’AI. Ad esempio, quale livello d’autonomia può essere concesso ad una macchina? E quando l’autonomia decisionale si unisce alla capacità di agire, ad esempio di un robot, questo ci porta subito alla mente situazioni pericolose per l’essere umano, spesso esaltate in parecchi film distopici. Ma anche il concetto di analizzare l’ambiente circostante e prendere delle decisioni può avere risvolti che hanno a che fare con i diritti dell’essere umano, si pensi ad esempio ad un sistema di Intelligenza Artificiale in grado di capire da una serie di dati se una persona è pericolosa per la società o meno”.

[28] Diversamente, in ambito filosofico, secondo DI CARO A., Intelligenza artificiale e naturalismo, in Hermeneutica, 2016, 205 e ss, “L’intelligenza è una facoltà umana e come tale non può essere compresa nel dominio della natura. In questo senso, allora, tutta l’intelligenza è artificiale. Tuttavia i termini hanno valore semplicemente distintivo. Alan Turing…più correttamente parlava di intelligenza meccanica”, ed ancora “L’intelligenza umana, biologica, si varrà di un potenziamento tale, meccanico, che la renderà vasta e immensa; tanto da essere incomprensibile alla vecchia intelligenza biologica”.

[29] Secondo PENROSE R., La mente nuova dell’imperatore, Firenze, 1998, 510 e 542, “…né la meccanica classica né la meccanica quantistica …potranno mai spiegare il modo in cui noi pensiamo”, ed ancora “Io credo che le menti coscienti non siano entità algoritmiche”.

[30] In visione critica riguardo all’impiego del termine intelligenza, considerato del tutto inadeguato allo stato attuale della tecnologia e ritenuto in ogni caso, esclusiva dell’essere umano, cfr. JULIA L., L’intelligence artificial n’existe pas, Parigi, 2019.

[31] KURZWEIL R., How to Create a Mind, London, 2012, nella trad. it, Apogeo, Milano, 2013, 205.

[32] Ex multis sul tema cfr. RINALDI L., Intelligenza artificiale, diritti e doveri nella Costituzione italiana, in DPCE Online 1, 2022, 201.

[33] BIFULCO R., Diritto e generazioni future. Problemi giuridici della responsabilità intergenerazionale, Milano, 2008.

[34] In questi termini CASONATO C., Intelligenza artificiale e diritto costituzionale: prime considerazioni, in Diritto pubblico comparato ed europeo, numero speciale, 2019, 125 ss.; ID. Costituzione e intelligenza artificiale: un’agenda per il prossimo futuro, in BioLaw Journal – Rivista di BioDiritto, Special Issue 2, 2019, 722 ss.

[35] In tal senso, TARANTINO M. L., Società, diritto naturale progressivo e diritto positivo critico: punti di incontro, Prefazione, Milano, 2018, XI, secondo cui, in tema di evoluzione storica del rapporto società-diritto, “Evoluzione come progressività di qualcosa che esiste nell’individuo e nella società e si sviluppa nel tempo, dando luogo a nuove situazioni sociali durature scaturenti dall’opposizione dell’imperativo della coscienza morale al comando dell’autorità politica. Opposizione sociale che si perpetua nel tempo e si manifesta più chiara nei periodi storici di limitazione della libertà individuale. Imperativi della coscienza morale che hanno assunto tradizionalmente il nome di diritto naturale dal V secolo a. C. nell’Antigone di Sofocle, che per primo ha rappresentato il contrasto tra norme della coscienza morale, espressione di una legislazione superiore, e quelle di un’autorità politica che nel tempo governa la società. Contrasto che, se alcune volte ha portato allo scontro fra le due posizioni altre volte ha portato verso l’incontro, all’accettazione dei principi da assumere come stella polare della condotta sociale. Incontri che hanno portato a nuovi periodi storici della società, da intendere come fenomeni naturali espressione della ragione, proiettati al di fuori della sfera individuale nella coscienza sociale, ordita dall’attività razionale dei consociati”.

[36] TARANTINO M. L., op. cit., XII, secondo cui “La storia della società, quindi, caratterizzata dalla dialettica dello scontro-incontro fra diritto naturale e diritto positivo, che assume nel corso della linea sinusoidale della sua vita periodi di splendore e periodi di decadenza sociale, vede, nel suo progredire verso la civiltà e il rispetto dei diritti di ogni persona, un periodo di incontro fra diritto naturale e diritto positivo. Incontro favorito dalla effettività di alcuni principi del diritto naturale, che ovviamente è più riconosciuto dagli esponenti moderati del diritto naturale e del diritto positivo”.

[37] TARANTINO M. L., op. cit., 19.

[38] VIOLA F., I diritti umani alla prova del diritto naturale, cit., 101.

[39] VIOLA F., cit., 102.

[40] VIOLA F., cit., 103.

[41] VIOLA F., cit., 110.

[42] Commissione Teleologica Internazionale, Alla ricerca di un’etica universale: nuovo sguardo alla legge naturale, Libreria editrice vaticana, 2009.

[43] In incipit dell’introduzione del documento si legge: “Esistono valori morali oggettivi in grado di unire gli uomini e di procurare ad essi pace e felicità? Quali sono? Come riconoscerli? Come attuarli nella vita delle persone e delle comunità? Questi interrogativi di sempre intorno al bene e al male oggi sono più urgenti che mai, nella misura in cui gli uomini hanno preso maggiormente coscienza di formare una sola comunità mondiale. I grandi problemi che si pongono agli esseri umani hanno ormai una dimensione internazionale, planetaria, poiché lo sviluppo delle tecniche di comunicazione favorisce una crescente interazione tra le persone, le società e le culture. Un avvenimento locale può avere una risonanza planetaria quasi immediata. Emerge così la consapevolezza di una solidarietà globale, che trova il suo ultimo fondamento nell’unità del genere umano. Questa si traduce in una responsabilità planetaria. Così il problema dell’equilibrio ecologico, della protezione dell’ambiente, delle risorse e del clima è divenuta una preoccupazione pressante, che interpella tutta l’umanità e la cui soluzione va ampiamente oltre gli ambiti nazionali. Anche le minacce che il terrorismo, il crimine organizzato e le nuove forme di violenza e di oppressione fanno pesare sulle società hanno una dimensione planetaria. I rapidi sviluppi delle biotecnologie, che a volte minacciano la stessa identità dell’essere umano (manipolazioni genetiche, clonazioni…), reclamano urgentemente una riflessione etica e politica di ampiezza universale. In tale contesto, la ricerca di valori etici comuni conosce un ritorno di attualità”.

[44] Capitolo 4, La legge naturale e la città.

[45] Ult. doc. cit., (Cap. 4.3.).

[46] Ult. doc. cit. (Cap. 4.2.): “La società organizzata in vista del bene comune dei suoi membri risponde a un’esigenza della natura sociale della persona. La legge naturale appare allora come l’orizzonte normativo nel quale l’ordine politico è chiamato a muoversi. Essa definisce l’insieme dei valori che appaiono come umanizzanti per una società. Quando ci si colloca nell’ambito sociale e politico, i valori non possono essere più di natura privata, ideologica o confessionale, ma riguardano tutti i cittadini. Essi esprimono non un vago consenso tra loro, ma si fondano sulle esigenze della loro comune umanità. Affinché la società adempia correttamente la propria missione di servizio della persona, deve promuovere la realizzazione delle sue inclinazioni naturali. La persona è dunque anteriore alla società, e la società è umanizzante soltanto se risponde alle attese inscritte nella persona in quanto essere sociale.

[47] Negli Stati Uniti, nel febbraio 2019 veniva emanata l’“AI Initiative” (Exec. Order n. 13859 of Feb 11, 2019, Maintaining American leadership in artificial intelligence) e successivamente sostituito dal “National Artificial Intelligence Initiative Act” (National Artificial Intelligence Initiative Act, H.R. 6216, 116th Cong. (2020)), in vigore dal gennaio 2021 con l’obiettivo di conservare il proprio vantaggio e favorire uno sviluppo tecnologico accompagnato da una proficua formazione continua dei lavoratori e dal mantenimento dei più alti standard di qualità e sicurezza della produzione, prendendo in considerazione l’impatto dell’IA sulla società e sul diritto. La Cina, se nel  già 2017 lanciava il “New Generation Artificial Intelligence Development Plan”, con il fine dichiarato di divenire il leader mondiale nel settore dell’intelligenza artificiale, con la previsione di sviluppare una codificazione ed un sistema di norme giuridiche e di standard etici che compiutamente l’intelligenza artificiale, nel 2023 mediante la Cyberspace Administration of China (CAC), in collaborazione con altre sei agenzie regolatorie, ha introdotto le “Interim Measures on the Management of Generative Artificial Intelligence Services” che si concentrano sull’applicazione di requisiti legali esistenti nell’ambito della tecnologia AI generativa o modelli di linguaggio di grandi dimensioni. La Corea del Sud già nel 2017 presentava un piano strategico per l’intelligenza artificiale, con la pubblicazione, a cura del Ministero dello Sviluppo Scientifico e Tecnologico, del “Mid to Long Term Master Plan in Preparation for the Intelligent Information Society: Managing the Fourth Industrial Revolution”, al fine di implementare il progetto di una I-Korea 4.0, società basata su uno sviluppo tecnologico orientato alla crescita economica e alla soluzione dei problemi della società.

[48] Nella seduta del 14 marzo 2024, già il Parlamento UE aveva approvato il testo.

[49] Il Data Governance Act (Regolamento UE 2022/868) è uno dei pilastri della strategia europea per i dati, prosegue – con un deciso cambio di passo – il cammino avviato dalla Direttiva Open Data (Direttiva UE 2019/1024)1 e si colloca nel solco delle azioni intraprese dall’Unione con l’obiettivo di creare un mercato interno dei dati.  Nel presupposto che i dati siano una miniera preziosa per lo sviluppo economico e che dagli stessi dati si possa continuare ad estrarre ancora più valore, a beneficio dei cittadini europei, senza che questi si “esauriscano”, il DGA persegue una doppia ambizione. Da un lato, facilitare ed accelerare la circolazione dei dati attraversi meccanismi uniformi e, dall’altro, assicurare che l’uso e il riuso di dati avvenga in ambienti sicuri e protetti, nel rispetto dei diritti della persona e della normativa a tutela dei dati stessi.

[50] Regolamento (UE) 2023/2854 del Parlamento europeo e del Consiglio, del 13 dicembre 2023, recante norme armonizzate sull’accesso equo ai dati e sul loro utilizzo e che modifica il regolamento (UE) 2017/2394 e la direttiva (UE) 2020/1828 (Legge sui dati).

[51] Regulation (EU) 2022/1925 of the European Parliament and of the Council of 14 September 2022 on contestable and fair markets in the digital sector and amending Directives (EU) 2019/1937 and (EU) 2020/1828 (Digital Markets Act).

[52] Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act).

[53] Per una più ampia disamina dell’argomento cfr., TADDEI ELMI G. e MARCHIAFAVA S., Sviluppi recenti in tema di Intelligenza Artificiale e diritto: una rassegna di legislazione, giurisprudenza e dottrina, in Rivista italiana di informatica e diritto, 2022, 123.

[54] L’intelligenza artificiale per l’Europa, 25 aprile 2018, COM (2018) 237.

[55] Si legge a pag.16 del documento “Come primo passo per affrontare i problemi etici, un progetto di orientamenti etici per l’IA sarà elaborato entro la fine dell’anno, nel rispetto della Carta dei diritti fondamentali dell’Unione Europea. La Commissione radunerà tutti le parti interessate allo scopo di aiutare a elaborare questo progetto di orientamenti. Il progetto affronterà temi quali il futuro del lavoro, l’equità, la sicurezza, l’inclusione sociale e la trasparenza degli algoritmi. Più in generale esso esaminerà l’impatto sui diritti fondamentali, tra cui la vita privata, la dignità, la tutela dei consumatori e la non discriminazione. Il progetto si baserà sui lavori del Gruppo europeo sull’etica nelle scienze e nelle nuove tecnologie e si ispirerà ad altri esercizi simili. Saranno invitati a contribuire le imprese, gli istituti accademici e altre organizzazioni della società civile. In parallelo, la Commissione continuerà il proprio lavoro finalizzato al progresso dell’etica a livello Internazionale”.

[56] Secondo il par. 3.3. del documento citato, “I valori definiti nell’articolo 2 del trattato sull’Unione europea (TUE) costituiscono le basi dei diritti goduti da coloro che vivono nell’Unione. Inoltre, la Carta dei diritti fondamentali dell’UE raccoglie in un unico testo tutti i diritti personali, civici, politici, economici e sociali delle persone all’interno dell’UE”.

[57] Creare fiducia nell’intelligenza artificiale antropocentrica, 8 aprile 2019, COM (2019) 168, secondo cui (pag.2) “… L’IA pone tuttavia nuove sfide perché consente alle macchine di “imparare”, prendere decisioni ed eseguirle senza l’intervento umano. In breve tempo questa modalità di funzionamento diventerà la norma per molti tipi di beni e servizi, dagli smartphone alle automobili automatizzate, ai robot e alle applicazioni online. Le decisioni prese dagli algoritmi potrebbero però basarsi su dati incompleti e quindi non affidabili, manomessi a seguito di attacchi informatici, inficiati da condizionamenti o semplicemente errati. Applicare acriticamente la tecnologia man mano che questa viene sviluppata porterebbe pertanto a risultati problematici e a una certa riluttanza da parte dei cittadini ad accettarla o a utilizzarla. La tecnologia dell’IA dovrebbe invece essere sviluppata in modo da porre al centro l’essere umano e permetterle di conquistare la fiducia del pubblico”.

[58] Libro bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, 19 febbraio 2020, COM(2020) 65.

[59] Si legge a pag. 3 del citato documento: “…La costruzione di un ecosistema di fiducia è un obiettivo strategico in sé e dovrebbe dare ai cittadini la fiducia di adottare applicazioni di IA e alle imprese e alle organizzazioni pubbliche la certezza del diritto necessaria per innovare utilizzando l’IA. La Commissione sostiene con forza un approccio antropocentrico basato sulla comunicazione “Creare fiducia nell’intelligenza artificiale antropocentrica” e terrà conto anche dei contributi ottenuti durante la fase pilota degli orientamenti etici elaborati dal gruppo di esperti ad alto livello sull’IA”.

[60] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)), P8_TA(2017) 0051.

[61] Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi adottata dalla CEPEJ nel corso della sua 31 ͣ Riunione plenaria (Strasburgo, 3-4 dicembre 2018).

[62] Recommendation CM/Rec (2020)1 of the Committee of Ministers to member States on the human rights impacts of algorithmic systems (Adopted by the Committee of Ministers on 8 April 2020 at the 1373rd meeting of the Ministers’ Deputies).

[63] FINOCCHIARO G., La regolazione dell’intelligenza artificiale, in Rivista Trimestrale di Diritto Pubblico, 2022, 1092, ove si legge “L’art. 2, infatti, con tecnica analoga a quella utilizzata dall’art. 3 del regolamento (UE) 2016/679 29, dispone che il regolamento si applichi ai fornitori che immettono sul mercato o mettono in servizio sistemi di intelligenza artificiale nell’Unione, indipendentemente dal fatto che siano stabiliti nell’Unione o in un Paese terzo, nonché agli utenti dei sistemi di IA situati nell’Unione e ai fornitori e agli utenti di sistemi di IA situati in un Paese terzo, ove l’output prodotto dal sistema sia utilizzato nell’Unione”.

[64] Considerando 48: “… La portata dell’impatto negativo del sistema di IA sui diritti fondamentali protetti dalla Carta è di particolare rilevanza ai fini della classificazione di un sistema di IA tra quelli ad alto rischio. Tali diritti comprendono il diritto alla dignità umana, il rispetto della vita privata e della vita familiare, la protezione dei dati personali, la libertà di espressione e di informazione, la libertà di riunione e di associazione e la non discriminazione, il diritto all’istruzione, la protezione dei consumatori, i diritti dei lavoratori, i diritti delle persone con disabilità, l’uguaglianza di genere, i diritti di proprietà intellettuale, il diritto a un ricorso effettivo e a un giudice imparziale, i diritti della difesa e la presunzione di innocenza e il diritto a una buona amministrazione. Oltre a tali diritti, è importante sottolineare il fatto che i minori godono di diritti specifici sanciti dall’articolo 24 della Carta e dalla Convenzione delle Nazioni Unite sui diritti dell’infanzia e dell’adolescenza, ulteriormente sviluppati nell’osservazione generale n. 25 della Convenzione delle Nazioni Unite dell’infanzia e dell’adolescenza per quanto riguarda l’ambiente digitale, che prevedono la necessità di tenere conto delle loro vulnerabilità e di fornire la protezione e l’assistenza necessarie al loro benessere. È altresì opportuno tenere in considerazione, nel valutare la gravità del danno che un sistema di IA può provocare, anche in relazione alla salute e alla sicurezza delle persone, il diritto fondamentale a un livello elevato di protezione dell’ambiente sancito dalla Carta e attuato nelle politiche dell’Unione”.

[65] Al Considerando 44 si legge infatti: “… Sussistono serie preoccupazioni in merito alla base scientifica dei sistemi di IA volti a identificare o inferire emozioni, in particolare perché l’espressione delle emozioni varia notevolmente in base alle culture e alle situazioni e persino in relazione a una stessa persona. Tra le principali carenze di tali sistemi figurano la limitata affidabilità, la mancanza di specificità e la limitata generalizzabilità. Pertanto, i sistemi di IA che identificano o inferiscono emozioni o intenzioni di persone fisiche sulla base dei loro dati biometrici possono portare a risultati discriminatori e possono essere invasivi dei diritti e delle libertà delle persone interessate”.

[66] Considerando 29: “… L’immissione sul mercato, la messa in servizio o l’uso di determinati sistemi di IA con l’obiettivo o l’effetto di distorcere materialmente il comportamento umano, con il rischio di causare danni significativi, in particolare aventi effetti negativi sufficientemente importanti sulla salute fisica, psicologica o sugli interessi finanziari, sono particolarmente pericolosi e dovrebbero pertanto essere vietati. Tali sistemi di IA impiegano componenti subliminali quali stimoli audio, grafici e video che le persone non sono in grado di percepire poiché tali stimoli vanno al di là della percezione umana o altre tecniche manipolative o ingannevoli che sovvertono o pregiudicano l’autonomia, il processo decisionale o la libera scelta di una persona senza che ne sia consapevole o, se ne è consapevole, senza che sia in grado di controllarle o resistervi o possa evitare l’inganno”.

[67] Tecnologie volte a influenzare il comportamento di una persona al fine di orientarlo in senso dannoso verso sé stessa o gli altri (art. 5 par. 1 lett. a), di sistemi finalizzati a sfruttare specifiche vulnerabilità della persona quali disabilità o minore età (art. 5 par. 1 lett. b), di sistemi di valutazione del credito sociale che facciano discendere conseguenze pregiudizievoli per i soggetti coinvolti in contesti non connessi a quello in cui i dati di partenza sono stati raccolti (art. 5 par. 1 lett. c).

[68] L‘elenco comprende, ad esempio, i sistemi utilizzati nell‘attività creditizia, per la gestione dei flussi migratori, o per l‘identificazione biometrica nei casi, appena visti, in cui il precedente art. 5 la permette. Rientrano nella categoria, inoltre, le tecnologie basate sull‘intelligenza artificiale che costituiscano prodotti, o componenti di sicurezza di prodotti, disciplinati da un‘ampio elenco di testi legislativi europei di armonizzazione, previsto all‘allegato II, e per i quali tali norme prevedano una valutazione di conformità da parte di terzi.

[69] È questo il caso quando sono soddisfatte una o più delle seguenti condizioni: a) il sistema di IA è destinato a eseguire un compito procedurale limitato; b) il sistema di IA è destinato a migliorare il risultato di un’attività umana precedentemente completata; c) il sistema di IA è destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non è inteso a sostituire o influenzare la valutazione umana precedentemente completata senza un’adeguata revisione umana; o d) il sistema di IA è destinato a eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d’uso elencati nell’allegato III del Regolamento.

[70] Ex multis, nella letteratura internazionale, RUSSELLNORVIG P., Artificial intelligence: a modern approach (4° ed.), Hoboken (NJ), 2021, 1-2.

[71] BHATNAGAR et AL., Mapping intelligence: requirements and possibilities, in V.C. MULLER (ED.), Philosophy and Theory of Artificial Intelligence, Berlino, 2017, 118, secondo cui “… it is difficult for policy makers to assess what AI systems  will be able to do in the near future, and how the field may get there. There is no common framework to determine which kinds of AI systems are even desirable”.

[72] HAUGELAND J., Artificial intelligence: the very idea, Cambridge (US)-Londra, 1985, 2.

[73] Già nel lontano 2004 (Autonomia contrattuale e garanzie nella vendita di beni di consumo, Milano, 2004, 104 e ss.), ritenevamo di proporre una interpretazione estensiva dell’allora art. 1519 bis del codice civile al software, identificabile dunque come bene di consumo. Sul tema, negli studi dell’epoca cfr. anche MANNINO V., Sub art. 1519 bis, Ambito di applicazione e definizioni, in Commentario alla disciplina della vendita dei beni di consumo, a cura di GAROFALO L., Padova, 2003, 46; MONATERI P.G., La responsabilità da prodotti, in Trattato di diritto privato, diretto da BESSONE, Torino, 2002; CIATTI A., L’ambito di applicazione ratione materiae della direttiva comunitaria sulla vendita e le garanzie dei beni dei consumo, in Contratto e Impresa, 2000, 453 e ss.

[74] In tema ci permettiamo di richiamare un nostro recente scritto: Il manierismo consumerista nell’era digitale.  L’identità digitale, la sua patrimonializzazione ed il possibile abbandono della figura del consumatore, in Judicium, 2023/07, ed ivi ampi richiami.

[75] Secondo P. PORRO, Tommaso d’Aquino. Un profilo storico-filosofico, 2019, 351, “La legge naturale è quindi la legge eterna colta dalla razionalità umana: «Gli uomini hanno dunque la possibilità di accedere alla legge di natura tramite il loro lume altrettanto naturale e possono utilizzare il ragionamento pratico […] per applicare tale legge ai casi particolari”. Per G. SAMEK LODOVICI, Lex et amor, in Bonum in communi. Prospettive su natura umana e legge naturale, a cura di D. Simoncelli, in “Divus Thomas”, CXXII (2019), 146-147, “… si deve fare il bene ed evitare il male”, “non si deve fare torto/male a nessuno”, “si deve anelare alla verità”, “si deve essere riconoscenti per i benefici ricevuti” o “non fare agli altri quello che non vorresti fosse fatto a te”.

[76] N. BOBBIO, Legge naturale e legge civile nella filosofia politica di Hobbes, Torino, 1954, 69.