L’intelligenza artificiale è un ramo dell’informatica che studia la programmazione, la progettazione e lo sviluppo di sistemi hardware e software miranti a dotare le macchine di una o più caratteristiche considerate tipicamente umane. Le macchine dotate di intelligenza artificiale sono in grado di prendere decisioni autonomamente in vista di un fine, una prerogativa fino ad anni recenti attribuita univocamente agli esseri umani. L’intelligenza artificiale si caratterizza, dunque ed in prima istanza, come qualcosa di squisitamente tecnico, frutto di un lavoro pluridecennale da parte di esperti di informatica, robotica e in generale delle scienze dure di tutto il mondo. Le sue applicazioni sono potenzialmente infinite e possono riguardare diversi ambiti, industriali, domestici, militari. L’intelligenza artificiale sa vedere, ascoltare, ragionare, agire. E lo fa elaborando quantità di dati impensabili e insostenibili per un essere umano. Per comprendere meglio cosa sia la AI è opportuno capire cosa faccia: l’AI cerca di mettere i computer in grado di fare il genere di cosa che sanno fare le menti. Dal momento che l’intelligenza umana non è una sola dimensione ma si configura come uno spazio densamente strutturato di diverse capacità di elaborazione dell’informazione, l’AI utilizzerà conseguentemente tecniche di varia natura per potere essere in misura di affrontare compiti ogni volta differenti. L’AI è ovunque: le sue applicazioni pratiche si trovano nelle abitazioni, nelle automobili, negli uffici, negli ospedali, nei droni militari, nei robot seminatori, nell’etere, in internet e in ogni sua applicazione videogiochi, navigatori satellitarie e simili. Se ci affidiamo alla definizione della CE del 2018 quello che può essere definito come il primo documento europeo sulla AI troveremo un accordo rispetto al fatto che una AI si occupi di realizzare sistemi in grado di fare tre cose:

  • Analizzare l’ambiente: le AI analizzano i dati che provengono dall’ambiente, sanno vedere, sanno ascoltare l’ambiente che le circonda;
  • Avere un comportamento intelligente: le AI funzionano secondo le logiche dell’apprendimento, del ricordo dell’esperienza e della capacità di ragionamento tipico di un sistema intelligente;
  • Intraprendere azioni con un certo grado di autonomia e rivolte a obiettivi specifici.

Una AI sarà in grado di svolgere questi tre compiti e attraverso di essa gli esseri umani acquisteranno la capacità di perseguire contemporaneamente due diversi ordini di obiettivi principali:

  • Obiettivi tecnologici: usare i computer per fare cose utili;
  • Obiettivi scientifici: usare i concetti e i modelli dell’AI per contribuire a rispondere a interrogativi che riguardano gli esseri umani e gli altri esseri viventi.   

La dottrina giuslavoristica ha solo di recente iniziato ad occuparsi diffusamente della giustizia predittiva sulla quale sono state avviate interessanti riflessioni in altri rami del diritto in Italia e all’estero. Numerosi sono gli intrecci con il tema della intelligenza artificiale. L’impiego di quest’ultima può condurre a risultati vantaggiosi in diversi ambiti, tra i quali si annovera la giustizia. Del resto, alla predizione circa l’esito di una lite si giunge proprio attraverso un algoritmo che altro non è che una formula matematica contenente le istruzioni per risolvere un problema: maggiori, perciò, saranno i dati a disposizione della macchina più elevate saranno le chance di successo della previsione (o nel modello del giudice robot, nell’assunzione) della decisione. Ciò si verifica però solo qualora i dati inseriti siano esatti e pertinenti. In questo caso la formula GIGO (acronimo di Garbade In Garbage Out) esprime l’idea per cui in presenza di dati di scarsa qualità, la determinazione dell’algoritmo non potrà che essere inattendibile. Resta inteso che le tecniche di elaborazione algoritmica dei dati non riproducono il ragionamento giuridico né sono in grado di motivare una decisione in senso stretto ma unicamente per relationem pur potendo anticipare gli esiti di una controversia attraverso una combinazione su base probabilistica dei parametri inseriti nell’algoritmo, si è ancora lontani anche rispetto agli algoritmi programmati per l’autoapprendimento (cd. Machine learning) da una perfetta sovrapposizione con l’intelligenza umana i cui esatti contorni, peraltro, restano a loro volta misteriosi.

Come di recente affermato dal Conseil Constitutionel francese, se si sceglie di affidarsi agli algoritmi nell’amministrazione della giustizia è necessario garantire che le decisioni non si fondino sul trattamento automatico dei dati personali, quale l’origine etnica, le opinioni politiche, l’appartenenza sindacale, i dati genetici, biometrici e sanitari. In effetti non si può escludere che l’algoritmo risulta affetto dagli stessi pregiudizi di chi lo ha programmato o che, comunque, il suo impiego dia luogo a forme di discriminazione. Pare esemplare in questo senso la vicenda Loomis nel cui ambito la probabilità di recidiva del reo è stata calcolata dal giudice, dietro suggerimento di Compas, sulla base della sua appartenenza ad una classe di soggetti più inclini statisticamente a ripetere certi crimini.

Come sostenuto da molti per stabilire cosa ci si possa aspettare da un giudice robot è necessario identificare le pretese che si possono elevare nei confronti di un giudice umano. Tale compito si rivela quanto mai complesso in riferimento al giudice del lavoro, da sempre (e inevitabilmente) al centro di un ampio dibattito all’interno del contesto nazionale. Se si prendono in esame gli ultimi interventi sul diritto e sul processo del lavoro in Italia, si ha la netta percezione di un disegno dei policy makers il quale, mirando al contenimento della discrezionalità o della creatività giudiziaria, potrebbe costituire il perfetto prologo, per finalità e valori, di un eventuale passaggio ad una giustizia del lavoro (interamente) algoritmica. Mette però conto rilevare come tale progetto sia in larga parte fallito e non in ragione di ipotetiche resistenze di carattere ideologico bensì alla luce delle caratteristiche proprie di una normativa pregna di opzioni valutative che trovano riscontro nell’ampio spazio riconosciuto dallo stesso legislatore del lavoro alle clausole elastiche e alle norme generali. In questo senso, non volendo indugiare sul tentativo infruttuoso del Collegato Lavoro del 2010 di restringere, con finalità di monito, il controllo giudiziale sulle clausole generali, si potrebbe sostenere che il Jobs act (D LGS 23/2015) nel definire ex ante la misura del risarcimento in ipotesi di un licenziamento viziato, sia stato ancora una volta tutt’altro che riuscito, esperimento di giustizia predittiva ante litteram. Non è un caso che persino nelle tiepide aperture nei riguardi di un giudice robot, ci si è in genere riferiti alle sole ipotesi delle decisioni vincolate o predeterminate ovvero alla periferia della giurisdizione: la mente corre, oltre che ai decreti ingiuntivi, alle questioni routenarie, di merito, di rito (litispendenza, connessione o continenza) che non prevedano o implichino alcuna eterointegrazione fattuale o valoriale. Sempre ammesso che esistano davvero i casi semplici, l’operazione pare quanto mai ardua in presenza dei modelli normativi aperti che sono frequentissimi nella legislazione lavoristica. Al cospetto di questi ultimi, l’affidamento al giudice robot si rivelerebbe una operazione non solo complessa sul piano tecnico ma anche e soprattutto scongiurabile a livello sistematico. L’ordinamento respira infatti con i polmoni delle clausole generali che garantiscono che il diritto (che è un discorso infinito) stia al passo con i tempi, evolvendo attraverso intuizioni costruttive, se non creative in senso stretto; ed anche quando, come testimonia la parabola del mobbing, sul finire del secolo scorso, si assiste a generose fughe in avanti, il sistema è comunque in grado di trovare i necessari adattamenti: tra questi merita una menzione la funzione nomofilattica svolta dalla giurisprudenza di legittimità ampiamento valorizzata nelle ultime riforme del processo del lavoro. Di converso l’impiego della tecnologia al fine di riempire di contenuto le disposizioni aperte potrebbe rivelarsi uno strumento di conservazione dello status quo dal momento che l’algoritmo, essendo privo di una autonoma capacità di discernimento, non potrebbe che guardare al passato così come cristallizzato nelle massime giurisprudenziali. Si potrà certamente obiettare che le macchine più avanzate sono in grado oggi di imparare (cd. Machine learning) ma verrebbe da chiedersi quale possa o quale debba essere il motore del cambiamento se non ancora una volta l’uomo in quanto unico in grado di combinare il ragionamento induttivo e deduttivo e soprattutto di farsi portatore delle istanze provenienti dalla realtà sociale. In questo caso, il giudice opererebbe come un pilota d’aereo che, pur avvalendosi di sistemi automatici di controllo è all’occorrenza in grado di compiere scelte interpretative coraggiose ed innovative senza assumere una posizione ideologicamente orientata. 

                                                                                              Prof. Avv. Alberico Valerio Visone

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *