L’intelligenza artificiale è un ramo dell’informatica che studia la programmazione, la progettazione
e lo sviluppo di sistemi hardware e software miranti a dotare le macchine di una o più
caratteristiche considerate tipicamente umane. Le macchine dotate di intelligenza artificiale sono in
grado di prendere decisioni autonomamente in vista di un fine, una prerogativa fino ad anni recenti
attribuita univocamente agli esseri umani. L’intelligenza artificiale si caratterizza, dunque ed in
prima istanza, come qualcosa di squisitamente tecnico, frutto di un lavoro pluridecennale da parte
di esperti di informatica, robotica e in generale delle scienze dure di tutto il mondo. Le sue
applicazioni sono potenzialmente infinite e possono riguardare diversi ambiti, industriali, domestici,
militari. L’intelligenza artificiale sa vedere, ascoltare, ragionare, agire. E lo fa elaborando quantità di
dati impensabili e insostenibili per un essere umano. Per comprendere meglio cosa sia la AI è
opportuno capire cosa faccia: l’AI cerca di mettere i computer in grado di fare il genere di cosa che
sanno fare le menti. Dal momento che l’intelligenza umana non è una sola dimensione ma si
configura come uno spazio densamente strutturato di diverse capacità di elaborazione
dell’informazione, l’AI utilizzerà conseguentemente tecniche di varia natura per potere essere in
misura di affrontare compiti ogni volta differenti. L’AI è ovunque: le sue applicazioni pratiche si
trovano nelle abitazioni, nelle automobili, negli uffici, negli ospedali, nei droni militari, nei robot
seminatori, nell’etere, in internet e in ogni sua applicazione videogiochi, navigatori satellitarie e
simili. Se ci affidiamo alla definizione della CE del 2018 quello che può essere definito come il primo
documento europeo sulla AI troveremo un accordo rispetto al fatto che una AI si occupi di
realizzare sistemi in grado di fare tre cose:

  • Analizzare l’ambiente: le AI analizzano i dati che provengono dall’ambiente, sanno vedere,
    sanno ascoltare l’ambiente che le circonda;
  • Avere un comportamento intelligente: le AI funzionano secondo le logiche
    dell’apprendimento, del ricordo dell’esperienza e della capacità di ragionamento tipico di
    un sistema intelligente;
  • Intraprendere azioni con un certo grado di autonomia e rivolte a obiettivi specifici.
    Una AI sarà in grado di svolgere questi tre compiti e attraverso di essa gli essere umani
    acquisteranno la capacità di perseguire contemporaneamente due diversi ordini di obiettivi
    principali:
  • Obiettivi tecnologici: usare i computer per fare cose utili;
  • Obiettivi scientifici: usare i concetti e i modelli dell’AI per contribuire a rispondere a
    interrogativi che riguardano gli esseri umani e gli altri esseri viventi.
    La dottrina giuslavoristica ha solo di recente iniziato ad occuparsi diffusamente della giustizia
    predittiva sulla quale sono state avviate interessanti riflessioni in altri rami del diritto in Italia e
    all’estero. Numerosi sono gli intrecci con il tema della intelligenza artificiale. L’impiego di
    quest’ultima può condurre a risultati vantaggiosi in diversi ambiti tra i quali si annovera la giustizia.
    Del resto, alla predizione circa l’esito di una lite si giunge proprio attraverso un algoritmo che altro
    non è che una formula matematica contenente le istruzioni per risolvere un problema: maggiori
    perciò saranno i dati a disposizione della macchina più elevate saranno le chance di successo della
    previsione (o nel modello del giudice robot, nell’assunzione) della decisione. Ciò si verifica però solo
    qualora i dati inseriti siano esatti e pertinenti. In questo caso la formula GIGO (acronimo di Garbade
    In Garbage Out) esprime l’idea per cui in presenza di dati di scarsa qualità, la determinazione
    dell’algoritmo non potrà che essere inattendibile. Resta inteso che le tecniche di elaborazione
    algoritmica dei dati non riproducono il ragionamento giuridico né sono in grado di motivare una
    decisione in senso stretto ma unicamente per relationem pur potendo anticipare gli esiti di una

controversia attraverso una combinazione su base probabilistica dei parametri inseriti
nell’algoritmo, si è ancora lontani anche rispetto agli algoritmi programmati per
l’autoapprendimento (cd. Machine learning) da una perfetta sovrapposizione con l’intelligenza
umana i cui esatti contorni, peraltro, restano a loro volta misteriosi.
Come di recente affermato dal Conseil Constitutionel francese, se si sceglie di affidarsi agli algoritmi
nell’amministrazione della giustizia è necessario garantire che le decisioni non si fondino sul
trattamento automatico dei dati personali, quale l’origine etnica, le opinioni politiche,
l’appartenenza sindacale, i dati genetici, biometrici e sanitari. In effetti non si può escludere che
l’algoritmo risulta affetto dagli stessi pregiudizi di chi lo ha programmato o che, comunque, il suo
impiego dia luogo a forme di discriminazione. Pare esemplare in questo senso la vicenda Loomis nel
cui ambito la probabilità di recidiva del reo è stata calcolata dal giudice, dietro suggerimento di
Compas, sulla base della sua appartenenza ad una classe di soggetti più inclini statisticamente a
ripetere certi crimini.
Come sostenuto da molti per stabilire cosa ci si possa aspettare da un giudice robot è necessario
identificare le pretese che si possono elevare nei confronti di un giudice umano. Tale compito si
rivela quanto mai complesso in riferimento al giudice del lavoro, da sempre (e inevitabilmente) al
centro di un ampio dibattito all’interno del contesto nazionale. Se si prendono in esame gli ultimi
interventi sul diritto e sul processo del lavoro in Italia, si ha la netta percezione di un disegno dei
policy makers il quale, mirando al contenimento della discrezionalità o della creatività giudiziaria,
potrebbe costituire il perfetto prologo, per finalità e valori, di un eventuale passaggio ad una
giustizia del lavoro (interamente) algoritmica. Mette però conto rilevare come tale progetto sia in
larga parte fallito e non in ragione di ipotetiche resistenze di carattere ideologico bensì alla luce
delle caratteristiche proprie di una normativa pregna di opzioni valutative che trovano riscontro
nell’ampio spazio riconosciuto dallo stesso legislatore del lavoro alle clausole elastiche e alle norme
generali. In questo senso, non volendo indugiare sul tentativo infruttuoso del Collegato Lavoro del
2010 di restringere, con finalità di monito, il controllo giudiziale sulle clausole generali, si potrebbe
sostenere che il Jobs act (D LGS 23/2015) nel definire ex ante la misura del risarcimento in ipotesi di
un licenziamento viziato, sia stato ancora una volta tutt’altro che riuscito, esperimento di giustizia
predittiva ante litteram. Non è un caso che persino nelle tiepide aperture nei riguardi di un giudice
robot, ci si è in genere riferiti alle sole ipotesi delle decisioni vincolate o predeterminate ovvero alla
periferia della giurisdizione: la mente corre, oltre che ai decreti ingiuntivi, alle questioni routenarie,
di merito, di rito (litispendenza, connessione o continenza) che non prevedano o implichino alcuna
eterointegrazione fattuale o valoriale. Sempre ammesso che esistano davvero i casi semplici,
l’operazione pare quanto mai ardua in presenza dei modelli normativi aperti che sono
frequentissimi nella legislazione lavoristica. Al cospetto di questi ultimi, l’affidamento al giudice
robot si rivelerebbe una operazione non solo complessa sul piano tecnico ma anche e soprattutto
scongiurabile a livello sistematico. L’ordinamento respira infatti con i polmoni delle clausole
generali che garantiscono che il diritto (che è un discorso infinito) stia al passo con i tempi,
evolvendo attraverso intuizioni costruttive, se non creative in senso stretto; ed anche quando,
come testimonia la parabola del mobbing, sul finire del secolo scorso, si assiste a generose fughe in
avanti, il sistema è comunque in grado di trovare i necessari adattamenti: tra questi merita una
menzione la funzione nomofilattica svolta dalla giurisprudenza di legittimità ampiamento
valorizzata nelle ultime riforme del processo del lavoro. Di converso l’impiego della tecnologia al
fine di riempire di contenuto le disposizioni aperte potrebbe rivelarsi uno strumento di
conservazione dello status quo dal momento che l’algoritmo, essendo privo di una autonoma
capacità di discernimento, non potrebbe che guardare al passato cosi come cristallizzato nelle
massime giurisprudenziali. Si potrà certamente obiettare che le macchine più avanzate sono in
grado oggi di imparare (cd. Machine learning) ma verrebbe da chiedersi quale possa o quale debba

essere il motore del cambiamento se non ancora una volta l’uomo in quanto unico in grado di
combinare il ragionamento induttivo e deduttivo e soprattutto di farsi portatore delle istanze
provenienti dalla realtà sociale. In questo caso, il giudice opererebbe come un pilota d’aereo che
pur avvalendosi di sistemi automatici di controllo è all’occorrenza in grado di compiere scelte
interpretative coraggiose ed innovative senza assumere una posizione ideologicamente orientata.

Prof. Avv. Alberico Valerio Visone

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *