Chi ha paura dell'AI Generativa?

di

Dott. Paolo Marocco

15.04.2024

4

minuti di lettura

L’ IA generativa (generative AI) su cui abbiamo scritto un post introduttivo circa 20 gg fa (primo articolo: Generative AI), sta dividendo l’audience degli avvocati: c’è chi teme non sia attendibile  (vedi i casi di documentazione falsa usata in probatorie  legali, come chi sostiene possa essere un ottimo supporto per sbrigare e velocizzare pratiche di routine, e  chi addirittura azzarda sia uno strumento che farà scomparire la professione dell’avvocato. Ma è davvero il lupo cattivo delle favole, o l’affettuoso San Bernardo che fa il lavoro sporco, come trascinare le slitte e tenerti al caldo nell’igloo quando riposi?

Per orientarci attorno a questo quesito, presentiamo una panoramica dei casi a favore e quelli contrari. Precisiamo che questa panoramica si riferisce principalmente al mondo legale US, dove, oltre a una cultura digitale più diffusa, la dimensione media degli studi legali è più grande, il lavoro e la comunicazione tra avvocati più pervasiva, è ben più alto il budget a disposizione rispetto all’offerta del mercato di nuove soluzioni. Da cui, l’adottamento di nuove tecnologie è in anticipo rispetto alla maggior parte degli altri paesi[1], tra cui il nostro (per una mappa del legaltech in Italia: https://www.legaltechitalia.eu/maps/ ).

Nell’ottica di un’analisi preventiva dei problemi, un’anticipazione dei Pro/Contro importata dai paesi più evoluti, ci sembra utile per dissertare sui punti chiave e il dibattito che si sta sviluppando attorno a questi.

Iniziamo dal tema della Black box.

(vedi: https://www.law.com/legaltechnews/2023/09/07/ironclad-launches-gen-ai-offering-that-shows-its-work-ironclad-contract-ai/), ossia dalla mancanza di trasparenza nelle decisioni prese dai modelli generativi. Questa opacità non è banalmente legata a un'intenzionalità di chi crea, personalizza e applica questi modelli, ma alla tecnologia usata, ossia agli algoritmi Deep Learning che costituiscono l’ossatura di queste tecnologie, i quali sono di tipo linguistico-statistico e privi di regole esterne. Ossia, nelle versioni base, non ci sono disposizioni umane inserite dall'esterno, in modo da regolare quali siano le risposte approvate (attraverso una supervisione di specialisti sull'argomento) e quali non ammesse[2]. Ma è il sistema che si auto-crea le proprietà e 'regole opportune' per generare testo compatibile con la conoscenza sull'argomento, ovvero la capacità di generare il miglior risultato atteso a livello statistico, rispetto alla base di conoscenza 'grezza' (formata da miliardi di testi). In breve, nella loro natura essenziale, nessuno li vincola a non dire questo, oppure non inventarsi quest’altro.

Che è il problema oggi più critico, e impatta sulle cosiddette Hallucinations (https://www.linkedin.com/feed/hashtag/?keywords=Hallucinations) , rispetto a cui alcuni produttori stanno ricorrendo ai ripari.

A tutt'oggi questi sistemi NON sono mediamente capaci di auto-censurarsi o di capire se quello che stanno formulando sia corretto, sbagliato o incerto.  Prendiamo il caso dell’incertezza, il sistema non solo NON si rende conto se gli manca l'informazione sufficiente per rispondere in modo adeguato, ma non è nemmeno in grado di provare a chiedere altre informazioni, magari interrogando l’agente umano.

Secondo l’avvocato Andrea Ricci, interessato alle problematiche legal AI, è corretto quanto evidenziato da alcuni studiosi, per i quali la black box è [cit.] la massima espressione della opacità che può inficiare un giudizio. Questi sistemi sembrano essere incompatibili con il principio della trasparenza “rafforzata” che la giurisprudenza amministrativa ha indicato come garanzia minima di legittimità per l’utilizzo di algoritmi, anche quando privi di “autonomia”.  Tale principio, inteso come comprensibilità del risultato, era stato inserito anche nella proposta di Regolamento della Commissione europea del 21 aprile 2021 come standard di progettazione dei sistemi di AI.

La relazione tra la black box e l’esigenza di dare una spiegazione alle decisioni fondate o assistite da sistemi di Intelligenza Artificiale appartiene alla categoria delle questioni giuridiche identificate ma non risolte. La giurisprudenza ha indicato proprio nella esplicabilità una delle garanzie minime di legittimità dell’utilizzo di modelli algoritmi per l’adozione di decisioni amministrative. Una soluzione alla questione è variabile e dipendente dal tipo di sistema algoritmico concretamente utilizzato nell’attività amministrativa.

L’esigenza di acquisire innanzitutto consapevolezza sugli strumenti AI nelle loro moltiformi declinazioni, ivi compresa la black box, deriva peraltro da almeno due considerazioni. La prima è più pragmatica: le nozioni tecniche si trasformeranno a breve in “definizioni giuridiche”; ciò riguarderà anche i sistemi di “Deep Learning”, tecnicamente connotati dalla black box e forieri, pertanto, delle conseguenti problematiche in tema di trasparenza, laddove utilizzati in procedimenti amministrativi.

L’altra considerazione è di più̀ ampio respiro. La conoscenza del “fenomeno” complesso dei sistemi di AI costituisce un imprescindibile primo passo per poter affrontare le innumerevoli sfide giuridiche che la loro applicazione nell’attività amministrativa pone; sfide che non è escluso possano condurre ad una rivisitazione di tradizionali categorie giuridiche (atto amministrativo, discrezionalità, ma anche, in particolare sotto il profilo della responsabilità per danni, rapporto di causalità).

Per riassumere, questa classe di problemi, completamente nuova rispetto al passato, anzi assolutamente imprevedibile fino a qualche anno fa (quando gli algoritmi basati sul linguaggio verbale non generavano nulla) coinvolge alcune questioni cruciali, in generale, non solo in ambito legale:

- l’affidabilità: i modelli pionieristici risentono ovviamente della sperimentazione ancora un atto. E nel caso generativo, le insidie della statistica del linguaggio non controllata (e difficilmente controllabile, come esposto in precedenza) pongono sfide davvero nuove. Affronteremo l’argomento nei prossimi post. Qui vorrei fare solo un accenno all’impegno di Anthropic (https://www.linkedin.com/feed/hashtag/?keywords=Anthropic) , una delle nuove company più attive e maggiormente finanziate della Silicon Valley, in cui la progettazione di modelli Deep Learning va di pari passo all’evoluzione, la sicurezza e all’accuracy degli stessi (si veda: https://www.anthropic.com/news/core-views-on-ai-safety)

-       La capacità esplicativa. In altre parole, significa avere a disposizione strumenti capaci di indagare all’interno del processo generativo, per evitare che diverga verso soluzioni inattese. In termini tecnici, si tratta di quell’area chiamata Explanable AI (XAI), in cui il processo deve possedere anche le capacità di fornire chiavi interpretative del proprio meccanismo, non solo rispondere alle domande, come fossero una verità assoluta. Quindi spiegare le proprie decisioni e giustificare le proprie azioni in modo comprensibile per la mente umana.  In passato, i primi approcci del ragionamento legale automatico erano materia della Symbolic AI, fondata praticamente su assiomi e regole create da professionisti umani, che, da una parte, poteva solo fornire griglie e percorsi orientativi schematici (non certo dare suggerimenti in linguaggio naturale), ma dall’altra era estremamente controllata dagli alberi decisionali sottesi, e scritti da professionisti nell’ambito. In pochi anni si è passati a un mondo capovolto, rispetto a questi principi, dove l’umano è solo l’interlocutore esterno, un processo che è da leggere come una naturale conseguenza del progresso dell’AI in tutti i settori

Siamo in una fase di transizione. Non a caso, una delle ultime creature di Elon Mask https://www.linkedin.com/feed/hashtag/?keywords=elonmusk) , ancora in fase di debutto, si chiama proprio XAI (https://www.ilsole24ore.com/art/intelligenza-artificiale-musk-annuncia-debutto-xai-la-migliore-societa-circolazione-AFDyc7UB) , ossia AI esplicativa, ed è dedicata a progettare algoritmi di AI accoppiati a una prospettiva di trasparenza.  Ad affrontare, in prima istanza, Il trade-off tra performance e trasparenza, uno degli assi portanti dello sviluppo attuale dell’AI, dove occorre che gli algoritmi siano in grado di descrivere chiaramente come hanno raggiunto i risultati decisionali[3].

Il task non è facilissimo, ma soltanto in questo modo si può stabilire un evoluzione bilanciata di questi nuovi strumenti tale che siano coerenti, utili e accettati in maniera diffusa. Quindi correggere le sbavature della fase iniziale, rischiosa solo nello spaventare la vastissima fascia di utenti, esterni ai dettagli matematico-statistici che governano completamente l’ultima fase della AI.

Iscriviti alla newsletter

Unisciti alle menti principali della tecnologia legale e ricevi mensilmente le ultime notizie e gli aggiornamenti su legge, tecnologia legale, intelligenza artificiale e molto altro.

Grazie! La tua richiesta è stata ricevuta!
Oops! Something went wrong while submitting the form.