Il pericolo della AI è il suo essere invisibile

I

Il presente contributo analizza l’impatto dell’intelligenza artificiale sulla professione forense e sul sistema giuridico contemporaneo, focalizzandosi non tanto sugli aspetti tecnici o normativi, quanto sulle implicazioni sociali, etiche e professionali di questa rivoluzione tecnologica. Attraverso quattro casi emblematici, viene illustrato come l’intelligenza artificiale stia già operando in modo pervasivo e spesso invisibile in numerosi contesti decisionali, con conseguenze significative per la vita delle persone.
La peculiarità di questa trasformazione risiede precisamente nella sua “invisibilità”: sistemi algoritmici integrati in processi quotidiani assumono decisioni cruciali senza che vi sia piena consapevolezza della loro presenza e del loro funzionamento. La sfida per i professionisti del diritto non consiste meramente nell’adattarsi all’utilizzo di nuovi strumenti tecnologici, bensì nel comprendere come l’intelligenza artificiale stia ridefinendo il tessuto sociale che il diritto è chiamato a regolare. In un contesto in cui il confine tra decisione umana e determinazione algoritmica diviene sempre più sfumato, il giurista è chiamato ad assumere un ruolo di mediazione e interpretazione che trascende la dimensione tecnica per abbracciare quella ontologica della professione.
l contributo si conclude con una riflessione sulla necessità di evolvere da una concezione difensiva del rapporto con la tecnologia – centrata sul timore dell’insostituibilità – verso una prospettiva di “amplificabilità”, in cui il giurista integra la propria competenza professionale con una consapevolezza tecnologica che gli consente di porsi come coscienza critica in un mondo algoritmicamente mediato.

INTRODUZIONE – LA NECESSITÀ DI UN APPROCCIO CONSAPEVOLE

Recentemente si è verificato un episodio emblematico che ha suscitato non poco clamore all’interno della comunità forense. Un avvocato, nell’ambito di un procedimento dinanzi alla sezione imprese del Tribunale di Firenze, ha presentato una memoria difensiva contenente citazioni giurisprudenziali completamente prive di fondamento. Non si trattava di un’erronea interpretazione o di una tesi giuridica discutibile, bensì di riferimenti a sentenze della Corte di Cassazione del tutto inesistenti, generate artificialmente.

La responsabilità di tale incidente non può essere attribuita interamente al professionista in questione. La memoria era stata predisposta da una collaboratrice dello studio mediante l’utilizzo di ChatGPT, e il contenuto non era stato sottoposto a un’adeguata verifica. Le presunte sentenze si sono rivelate essere mere “hallucinations”, ossia contenuti fittizi generati dall’intelligenza artificiale.

Sarebbe semplice liquidare l’accaduto con una risata amara o con facili critiche verso un utilizzo inappropriato delle nuove tecnologie. Tuttavia, tale atteggiamento risulterebbe tanto ingeneroso quanto fuorviante. Il professionista e la sua collaboratrice hanno semplicemente tentato di adattarsi a un cambiamento epocale, pur con modalità inadeguate e prive della necessaria consapevolezza metodologica.

Tale sforzo di adattamento non merita derisione, bensì una profonda riflessione. La questione centrale, infatti, non riguarda tanto chi utilizza impropriamente l’intelligenza artificiale, quanto piuttosto il fatto che l’intelligenza artificiale stia progressivamente assumendo un ruolo attivo nelle nostre vite professionali. Essa prende decisioni, agisce, opera scelte. E, aspetto questo particolarmente inquietante, lo fa spesso in modo silenzioso e invisibile, senza manifestarsi apertamente e senza che ne siamo pienamente consapevoli.

L’obiettivo di questa trattazione non è quindi illustrare la normativa vigente o gli strumenti tecnologici disponibili, né approfondire immediatamente il tanto discusso AI Act. Intendo piuttosto proporre una riflessione attraverso quattro narrazioni emblematiche. Si tratta di storie quotidiane che, pur non facendo esplicito riferimento al diritto o alle aule di tribunale, riguardano profondamente la professione giuridica e le sfide che essa si trova ad affrontare nel contesto contemporaneo.

QUATTRO CASI EMBLEMATICI: L’INTELLIGENZA ARTIFICIALE NELLA QUOTIDIANITÀ

Le storie che seguono illustrano situazioni apparentemente ordinarie in cui l’intelligenza artificiale, pur non essendo esplicitamente menzionata, svolge un ruolo determinante con conseguenze drammatiche sulla vita delle persone coinvolte.

Il primo caso riguarda Martina, un’infermiera di pronto soccorso che, al termine di un turno particolarmente gravoso, percorre una via secondaria nel tragitto verso casa. La tranquillità di questo momento è brutalmente interrotta dall’arrivo di un veicolo che, per evitare una collisione frontale con un’altra automobile, devia improvvisamente la propria traiettoria investendo mortalmente la donna. Ciò che appare come un tragico incidente stradale cela, in realtà, una decisione algoritmica: il sistema di guida autonoma del veicolo, in conformità ai propri parametri operativi, ha “scelto” di deviare verso il marciapiede, privilegiando l’incolumità degli occupanti dei veicoli rispetto a quella del pedone. Non si è trattato, dunque, di una scelta umana, bensì di un calcolo effettuato da un sistema di autopilot progettato per minimizzare i danni secondo criteri predeterminati.

La seconda vicenda ha come protagonista Filippo, un uomo di età inferiore ai quarant’anni che, avvertendo un mal di testa insolito, decide responsabilmente di recarsi al pronto soccorso. Nonostante la correttezza del suo comportamento, Filippo perde la vita mentre attende il proprio turno, a causa della rottura di un aneurisma. La tragedia non è imputabile alla negligenza del personale sanitario, bensì a un sistema automatizzato di triage che, analizzando la sintomatologia riferita, ha assegnato al paziente un livello di priorità inadeguato. Un algoritmo, progettato per ottimizzare la gestione delle risorse ospedaliere, ha valutato il mal di testa come sintomo non urgente, determinando un’attesa che si è rivelata fatale.

Il terzo caso concerne Claudio, un addetto alle consegne che, pur definendosi “collaboratore esterno”, è sottoposto a un pervasivo sistema di valutazione automatizzata delle prestazioni. L’uomo, dopo aver affrontato difficoltà logistiche indipendenti dalla propria volontà, riceve comunicazioni automatiche che segnalano il progressivo deterioramento dei propri indicatori di performance. La pressione psicologica generata da questo monitoraggio algoritmico, privo di qualsiasi considerazione per le circostanze contingenti o per lo stato di benessere del lavoratore, conduce Claudio a un gesto estremo. Un sistema di valutazione predittiva, indifferente alla dimensione umana della performance lavorativa, ha progressivamente eroso la stabilità emotiva dell’individuo fino a provocarne il suicidio.

Infine, la quarta narrazione riguarda Simone, un uomo che, desideroso di ospitare con successo un’amica affetta da gravi allergie alimentari, si affida a un servizio online apparentemente affidabile per la preparazione di un pasto adeguato. Nonostante l’attenzione dedicata alla selezione degli ingredienti, il sistema utilizzato – un modello linguistico di intelligenza artificiale camuffato da “chef virtuale” – genera una ricetta che include componenti dannosi per la commensale, con conseguenze letali. L’assenza di una verifica umana e la fiducia riposta in un’etichettatura automatica si rivelano fatali in un contesto in cui la precisione è letteralmente questione di vita o morte.

Queste quattro vicende, pur nella loro eterogeneità, presentano un elemento comune di fondamentale rilevanza: in ciascuna di esse, decisioni cruciali sono state assunte non da esseri umani, bensì da sistemi algoritmici. Le conseguenze di tali decisioni – perdite di vite umane, danni emotivi irreparabili – sono interamente ricadute su persone fisiche, mentre i processi decisionali si sono svolti in una dimensione automatizzata, spesso invisibile ai soggetti coinvolti.

È questo aspetto che merita particolare attenzione da parte dei giuristi contemporanei: l’intelligenza artificiale non rappresenta semplicemente uno strumento da padroneggiare per ottimizzare l’attività professionale, ma costituisce una componente sempre più pervasiva del mondo sociale che il diritto è chiamato a regolare, interpretare e difendere.

LA VERA RIVOLUZIONE: L’INVISIBILITÀ DELL’INTELLIGENZA ARTIFICIALE

La sfida principale che i professionisti del diritto si trovano ad affrontare non risiede esclusivamente nell’adattamento a nuovi strumenti tecnologici o nell’acquisizione di competenze specifiche relative all’utilizzo di software come ChatGPT. La questione è sostanzialmente più complessa, più silenziosa e di natura sistemica. L’aspetto rivoluzionario dell’intelligenza artificiale contemporanea non è rappresentato dalla sua potenza computazionale o dalla sua sofisticazione tecnologica, bensì dalla sua progressiva banalizzazione e dalla sua pervasiva diffusione in ogni ambito della vita sociale. L’intelligenza artificiale ha cessato di essere una tecnologia “futuribile” per divenire un elemento quotidiano, onnipresente e, paradossalmente, invisibile. In un passato relativamente recente, l’implementazione di sistemi di intelligenza artificiale all’interno di processi aziendali richiedeva investimenti considerevoli, consulenze specialistiche e tempistiche dilatate. Oggi, al contrario, l’integrazione di funzionalità basate su intelligenza artificiale è accessibile a qualsiasi realtà imprenditoriale, indipendentemente dalle sue dimensioni o dalle sue risorse economiche. Poche righe di codice e un abbonamento dal costo contenuto sono sufficienti per incorporare capacità predittive, analitiche o decisionali all’interno di qualsiasi processo operativo. Questa democratizzazione tecnologica ha determinato una proliferazione incontrollata di applicazioni di intelligenza artificiale, spesso implementate senza un’adeguata supervisione tecnica o governance organizzativa. Non è più necessario ottenere autorizzazioni dal dipartimento informatico: qualsiasi operatore all’interno di un’organizzazione può autonomamente introdurre elementi di automazione intelligente nei processi di propria competenza. Il risultato è una diffusione capillare di intelligenze artificiali che operano in modo frammentato, disorganico e, soprattutto, invisibile. I giuristi contemporanei sono pertanto chiamati ad operare non semplicemente in un contesto in cui l’intelligenza artificiale rappresenta uno strumento disponibile, ma in un ecosistema sociale in cui innumerevoli intelligenze artificiali invisibili sono incastonate in ogni processo decisionale, in ogni flusso operativo, in ogni interazione sistemica. Tali intelligenze sono presenti nelle procedure di appalto, nei processi di selezione del personale, nei sistemi di analisi del rischio, nella definizione delle priorità sanitarie, nella determinazione dei rating bancari, nei criteri di selezione degli atti amministrativi. Il pericolo più insidioso non è rappresentato dall’intelligenza artificiale particolarmente potente o sofisticata, bensì dall’intelligenza artificiale mediocre ma ubiqua, che assume quotidianamente decisioni apparentemente “minori”, le quali tuttavia si propagano a catena fino a produrre conseguenze significative. L’attenzione si concentra su tali conseguenze solo quando queste assumono dimensioni tali da generare controversie giudiziarie, eventi letali o default economici. Solo in questi frangenti emerge la domanda cruciale: “Chi ha assunto la decisione determinante?”. È questa la sfida fondamentale per i giuristi contemporanei: ricostruire catene decisionali in cui l’elemento umano e l’elemento algoritmico si intrecciano in modo inestricabile, individuare responsabilità in contesti in cui l’automazione ha dissolto i tradizionali nessi causali, interpretare eventi in cui l’intenzionalità umana e la determinazione algoritmica si sovrappongono in modo indistinguibile.

OLTRE L’ADATTAMENTO TECNICO: LA DIMENSIONE ONTOLOGICA DELLA PROFESSIONE GIURIDICA

È necessario chiarire un aspetto fondamentale: l’approfondimento delle dinamiche relative all’intelligenza artificiale non rappresenta meramente un prerequisito per una più efficace redazione degli atti giuridici. Esso costituisce, piuttosto, una condizione imprescindibile per l’esercizio sostanziale della professione forense nella sua dimensione più autentica.

Tale necessità non è riconducibile a considerazioni di natura tecnica o procedurale, bensì investe la dimensione ontologica della professione giuridica. L’attività del giurista, infatti, non si esaurisce nella mera produzione documentale; essa consiste, nella sua essenza, nella mediazione tra la realtà fattuale e l’ordinamento giuridico. La funzione primaria del professionista del diritto risiede nella capacità di tradurre gli accadimenti concreti – siano essi dinamiche aziendali, relazioni interpersonali o situazioni conflittuali – nel linguaggio giuridico, interpretando la realtà attraverso le categorie del diritto.

Questa funzione ermeneutica richiede una comprensione approfondita dei fatti, una valutazione equilibrata delle responsabilità, un’individuazione accurata dei soggetti chiamati a rispondere delle proprie azioni. Tuttavia, come può il giurista esercitare efficacemente tale funzione in un contesto in cui il confine tra intenzionalità umana e determinazione algoritmica diviene progressivamente più labile e indistinto?

In che modo è possibile interpretare adeguatamente un danno, attribuire correttamente una responsabilità o analizzare compiutamente un rapporto contrattuale quando il “decisore effettivo” si rivela essere un sistema automatizzato integrato in un software di terze parti? La questione assume particolare rilevanza considerando che raramente tale complessità sarà esplicitamente evidenziata dal cliente.

È improbabile, infatti, che un soggetto si rivolga al professionista dichiarando di ritenere che la causa del proprio pregiudizio sia da ricercarsi in un bias algoritmico o in un’anomalia del modello linguistico che ha elaborato la propria documentazione fiscale. Più verosimilmente, il cliente presenterà la questione in termini immediati e concreti: “Ho perso un appalto”, “Sono stato escluso da una selezione”, “Sono stato licenziato”, “Non ho ricevuto le cure necessarie”.

Sarà compito del giurista, come sempre, individuare le cause sottostanti, ricostruire i nessi causali, identificare le responsabilità. In un contesto permeato da intelligenze artificiali invisibili, tale compito richiede una consapevolezza tecnologica che trascende la mera alfabetizzazione digitale per abbracciare una comprensione sistemica delle modalità operative dell’intelligenza artificiale e delle sue implicazioni giuridiche.

La sfida che si profila all’orizzonte è di portata considerevole, ma non priva di precedenti. È utile ricordare l’introduzione del processo civile telematico, inizialmente percepito come un ostacolo insormontabile: smart card, firma digitale, posta elettronica certificata, sistemi di deposito online caratterizzati da frequenti malfunzionamenti. Un sistema che appariva concepito per ostacolare, piuttosto che facilitare, l’attività professionale. Eppure, tale innovazione è stata progressivamente assimilata ed è oggi parte integrante della pratica professionale quotidiana.

È ragionevole prevedere che, entro dodici mesi, risulterà difficile concepire un procedimento giudiziario, una consulenza legale, un’attività istruttoria o un parere giuridico che non contempli, in una o più delle sue fasi, l’intervento di componenti di intelligenza artificiale. Che si tratti di attività di redazione, analisi, suggerimento, assegnazione o previsione, l’intelligenza artificiale sarà invariabilmente presente.

Il vero nodo problematico, tuttavia, non risiede nell’utilizzo diretto di tali strumenti da parte del professionista, bensì nel loro impiego da parte di altri soggetti: clienti, aziende, enti locali, piattaforme digitali, controparti processuali. Frequentemente, tali soggetti potrebbero non essere neppure consapevoli di aver interagito con un sistema di intelligenza artificiale, né tantomeno delle specifiche modalità decisionali adottate dall’algoritmo. È in questi contesti che l’intervento del giurista diviene cruciale: per ricostruire i nessi causali, determinare le responsabilità, stabilire se la violazione sia imputabile a un soggetto umano o a un sistema automatizzato.

TIMORI E RESPONSABILITÀ: IL VUOTO DECISIONALE NELL’ERA DELL’AUTOMAZIONE

In uno spirito di trasparenza intellettuale, ritengo doveroso esplicitare una preoccupazione personale che trascende il mero scetticismo tecnologico. Non è l’intelligenza artificiale in sé a suscitare inquietudine, quanto piuttosto l’atteggiamento di leggerezza con cui la società contemporanea si rapporta ad essa.

Ciò che desta particolare apprensione è la diffusa convinzione che sia sufficiente astenersi dall’utilizzo diretto dell’intelligenza artificiale per sottrarsi alla sua influenza. Tale illusione di impermeabilità tecnologica si accompagna a una fiducia acritica nei confronti di sistemi che sono percepiti come affidabili finché non si verificano episodi problematici. È particolarmente preoccupante la prospettiva di un’epoca in cui le decisioni vengono assunte in assenza di un centro di imputazione della responsabilità chiaramente identificabile.

La dicotomia tra macchine che decidono e esseri umani che subiscono le conseguenze di tali decisioni rappresenta una distorsione del rapporto tra tecnologia e società che merita un’attenta riflessione critica, soprattutto da parte della comunità giuridica.

L’IMPERATIVO CONTEMPORANEO: DALL’INSOSTITUIBILITÀ ALL’AMPLIFICABILITÀ

A conclusione di questa riflessione, desidero proporre un cambio di prospettiva rispetto alla relazione tra professione giuridica e intelligenza artificiale. L’attenzione non dovrebbe concentrarsi sul timore di una sostituzione professionale, quanto piuttosto sul rischio di una marginalizzazione del ruolo del giurista nel contesto di una società algoritmicamente mediata.

In un’epoca caratterizzata dall’automazione dell’intelligenza, emerge con rinnovata urgenza la necessità di intelligenze umane capaci di interpretare, mediare e orientare i processi decisionali. Il compito del giurista contemporaneo non consiste nel difendersi dalla tecnologia mediante un atteggiamento di chiusura o resistenza, bensì nell’assumere il ruolo di coscienza critica in un contesto in cui la tecnologia ha cessato di richiedere autorizzazione per permeare ogni aspetto della vita sociale.

Il professionista del diritto è chiamato a non restare ai margini di questa trasformazione epocale, ma a porsi come interprete privilegiato, come soggetto capace di tradurre e decodificare le dinamiche tecnologiche, come arbitro deputato a stabilire il confine tra l’umano e l’automatico. La prospettiva non è quella di rendersi insostituibili – condizione impossibile in un contesto di rapida evoluzione tecnologica – ma di divenire “amplificabili”, ossia capaci di integrare le proprie competenze professionali con una consapevolezza tecnologica che consenta di valorizzare, piuttosto che temere, le potenzialità dell’intelligenza artificiale.

In questa nuova configurazione del rapporto tra diritto e tecnologia, il giurista non è chiamato a competere con l’intelligenza artificiale sul terreno dell’efficienza computazionale o della rapidità di elaborazione, bensì a valorizzare quelle capacità specificamente umane – l’empatia, il giudizio etico, la comprensione contestuale, la valutazione delle sfumature – che rimangono prerogativa esclusiva dell’intelligenza umana. È nell’integrazione tra queste capacità irriducibilmente umane e le potenzialità dell’intelligenza artificiale che risiede il futuro della professione giuridica.

(Relazione del Convegno all’Ordine degli Avvocati di Milano del 9 Marzo 2025)

l'autore

Matteo Flora

Mi chiamo Matteo Flora, sono imprenditore seriale, docente universitario e keynote panelist e divulgatore. Mi occupo di cambiare i comportamenti delle persone usando i dati.
Puoi trovare informazioni su di me ed i miei contatti sul mio sito personale, compresi i link a tutti i social, mentre qui mi limito a raccogliere da oltre quattro lustri i miei pensieri sparsi.
Buona lettura.

aggiungi commento

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Matteo Flora

Mi chiamo Matteo Flora, sono imprenditore seriale, docente universitario e keynote panelist e divulgatore. Mi occupo di cambiare i comportamenti delle persone usando i dati.
Puoi trovare informazioni su di me ed i miei contatti sul mio sito personale, compresi i link a tutti i social, mentre qui mi limito a raccogliere da oltre quattro lustri i miei pensieri sparsi.
Buona lettura.