L'affascinante evoluzione delle "Generative AI"

di

Dott. Paolo Marocco

15.04.2024

4

minuti di lettura

Il primo boom della IA generativa inizia nel 2020, quando OpenAI lancia GPT-3, punta di diamante dei prodotti che lo avevano preceduto (GPT, GPT-2) e che erano rimasti di nicchia, per diversi motivi: minore efficienza, mancanza di una UI (User Interface) in grado di attrarre una popolazione vasta di utenti, un poverissimo lancio commerciale, e altro (OpenAI fino al 20 era una company di ricerca, non di business): alla fin fine diffusi solo nelle community di developer specialistici. Con GPT-3 le cose iniziano a cambiare: GPT-3 genera articoli, fa riassunti, risponde a domande generaliste, inizia anche a fare semplici calcoli (senza avere modelli matematici dietro né regole, apprendendo solo dai contesti testuali del proprio know-how).

Ma il boom avviene 2 anni dopo:

il turbo verrà installato su Chat-Gpt (novembre 2022), un 'evoluzione di GPT-3 mirata a una specializzazione orientata una più agevole interazione con l'utente, e che sostanzialmente, rispetto a GPT-3 ha il vantaggio di un training supervisionato da decine di migliaia di umani, i quali, per così dire, orientano l’apprendimento del modello verso una maggiore affidabilità.  Questo ibrido tra training controllato (reinforced learning) e miliardi di dati da cui apprendere, avrebbe inaugurato la stagione degli LLM (Large Language Model) di cui abbiamo parlato nel post precedente.

ll formato di chat-bot è l’arma finale, che fa dimenticare tutti gli intoppi e gli inceppi del classici bot usati nei servizi assistenza clienti, che il 99 delle volte ti obbligavano a ripetere la domanda sotto mille forme diverse, per poi farti desistere dal continuare. in breve, Chat-Gpt non ha esplicitate tutte le funzionalità di GPT-3, ma interagisce molto semplicemente offrendo la risposta migliore alle domande dell’utente. E’ il primo sistema in grado di interagire in modo diretto con tutta la fraseologia e le varietà di modi di dire dei dialoghi tra umani, praticamente in tutte le lingue  ( fino al samoano o la lingua usata nelle isole Tonga: vedi https://acutrans.com/languages-supported-by-chatgpt/). tutto l’engine del sistema è ‘nascosto’ al suo interno. Grazie a queste potenzialità, e un astuto lancio commerciale (Sam Altman, CEO di OpenAI, ha studiato bene le lezioni di Jobs, da cui attinge a piene mani), Chat-Gpt nel giro di un anno avrebbe raggiunto l'1.7 miliardi di utenti, coinvolti in un'accelerazione mai vista da quando esistono il web e le App.

A questo punto, aggiungiamo una breve osservazione, per spiegare il passaggio di queste tecnologie da un servizio Domanda-Risposta generalista, a quelli specifici e farciti di molte funzionalità personalizzate. Ossia sistemi dedicati per assistere professionisti, nelle pratiche quotidiane (non solo il marketing e i call-center, ma l’insegnamento dello yoga, la creazione e l’interpretazione di illustrazioni, i servizi di healthcare, quelli dei commercialisti, degli avvocati, …). Il ponte è edificato sui cosiddetti RAG (retrieval-augmented generation), ossia un’architettura che, da un lato, colleziona continuamente dati in modo aggiornato (dal web ma anche da banche dati non visibili in rete), dall’altro alimenta il sistema di interrogazione. All’interno di questo ciclo, vengono aggiunte funzionalità specialistiche ‘nascoste’ nell’engine principale, fornendo all’utente altre modalità di interrogazione, ma anche ‘piatti pronti’, ossia pacchetti di funzioni prestabiliti, statici o dinamici relazionati all’ultima query.

Il risultato è che il sistema è in grado imparare un certo gergo (del dominio applicativo dove viene adottato), di apprendere l’esperienza dei professionisti del settore, almeno di simularla, con la sfida di contribuire in breve, nell’imitare anni di lavoro e di interazione con clienti, in un particolare settore.

Vediamo una panoramica di questi RAG applicati agli Studi legali.  Innanzitutto, precisiamo che l’AI di oggi non è volta a sostituire il ruolo dell’avvocato. Piuttosto ha lo scopo di edificare ambienti utili alla consultazione e all’estensione delle conoscenze dell’avvocato, per agevolarlo nelle attività più schematiche e ripetitive.  In particolare, nei piccoli studi legali, dove il problema della riduzione dei costi impatta molto sulle possibilità di poter competere con studi più grandi, e con competenze dedicate.  Da questo punto di vista, l’AI-RAG può essere vista come la fusione evoluta di tre risorse: a) Archivi di Dati remoti (Dataset) b) Tool creati su misura per specifiche applicazioni c) Sistemi di apprendimento e revisione dove il contributo umano offre lo skill e l’esperienza necessari per correggere, raffinare e instradare verso i risultati attesi.    Gli archivi sono necessari per il mantenimento e l’aggiornamento delle informazioni del panorama giuridico (sentenze, atti, leggi, ecc.), che qui diventano anche materiale di training del sistema. Dal punto di vista applicativo, un sistema automatico evoluto offre oggi maggiori prestazioni rispetto alla velocità e precisione umane nell’individuazione di errori (sia lessicali, sia di contenuto e di riferimento a citazioni tipiche della pratica legale). Aree di grande interesse di queste nuove tecnologie, sono la Document Automation (dove la  IA generativa  può creare e  modificare documenti velocemente e con sufficiente precisione, specialmente per la fase di drafting),  la Due Diligence (nel caso di fusioni e acquisizioni la  IA generativa  può riassumere moltissime fonti in breve tempo, aiutando gli avvocati e identificare rischi e opportunità), il Contract Management:  la combinazione di Abstract Summarization e Generative AI  può estrarre  topic e  punti critici di contratti, per farne una lista in ordine di importanza, aggiungendo commenti automatici.   Questo processo permette di massimizzarne il valore e minimizzare il rischio. Ad esempio, non sempre la revisione di un contratto è accompagnata dal riconoscimento dei fattori di rischio che il contratto comporta, rispetto alle clausole e agli obbiettivi. Dipende dall’esperienza del revisore, da quanto l’accordo possa rientrare in un modello standard oppure sia sufficientemente documentato, nel caso sia vincolato a particolari dettagli di fusione/acquisizione. Altra area connessa è quella dell’Education.

Uno degli obbiettivi che si pone la Generative AI è quello di creare un modello completamente nuovo per la formazione degli avvocati, specialmente nelle prime fasi di avviamento alla professione. Una volta redatto un documento legale, un algoritmo può verificarlo rispetto al playbook aziendale, fornendo così un feedback personalizzato. La Generative AI può anche simulare interazioni con i clienti, consentendo agli avvocati di esercitarsi in una ambiente di simulazione controllata. Ad esempio, poter testare strategie di negoziazione e ricevere risposte simili a quelle umane, in modo da raffinarle all’interno di un dibattito in diversi scenari simulati.

Per chiudere, la rivoluzione di Chat-Gpt è stata necessaria per far provare a chiunque il nuovo corso di interazione uomo-macchina, in situazioni di garanzia e ‘confidenzialità’ in precedenza molto meno evolute. A questo punto occorre verificare se i semi che hanno fornito un veloce raccolto nella prima fase, dove un unico (o pochi) provider costituivano l’ossatura del business nascente, siano in grado di mantenere gli stessi risultati in business specialistici e diversificati, non solo consolidati da molto tempo, ma che mantengono un appannaggio non da poco da parte della cultura ed esperienza umane.

Iscriviti alla newsletter

Unisciti alle menti principali della tecnologia legale e ricevi mensilmente le ultime notizie e gli aggiornamenti su legge, tecnologia legale, intelligenza artificiale e molto altro.

Grazie! La tua richiesta è stata ricevuta!
Oops! Something went wrong while submitting the form.