Le allucinazioni di ChatGPT

di

Roberto Di Michele

15.04.2024

3

minuti di lettura

Nonostante i suoi trent’anni di lavoro un avvocato dello studio Levidow & Oberman di nome Steven Schwartz, credendo di semplificare il proprio lavoro rivolgendosi a ChatGPT, ha finito per ritrovarsi in uno spiacevole inconveniente con il giudice presentandosi in udienza con una serie di pratiche legali su casi inventati.

Roberto Mata, cliente dell’avvocato, si era rivolto a Schwartz per denunciare la compagnia aerea Vianca a causa di un incidente durante un volo di linea con un carrello di servizio.

"Dopo aver intentato la causa in Tribunale, l’avvocato Steven Schwartz a supporto della propria difesa ha fornito delle sentenze fasulle (a sua insaputa) sfruttando il sistema di intelligenza artificiale di ChatGPT".

Sebbene la buona fede dell’avvocato, che aveva provato a difendersi mostrando i vari quesiti presentati all’algoritmo e specificando se la loro realtà fosse confermata, il giudice non ha voluto sentire storie; facendo passare l’avvocato dalla parte del torto e intentando delle sanzioni contro di lui.

I sistemi di intelligenza artificiale come ChatGPT non possono essere considerati affidabili per casi complessi. La loro attendibilità deve essere sempre confermata da ricerche più approfondite, e soprattutto dalle fonti certificate che ne conferiscono la validità.

Iscriviti alla newsletter

Unisciti alle menti principali della tecnologia legale e ricevi mensilmente le ultime notizie e gli aggiornamenti su legge, tecnologia legale, intelligenza artificiale e molto altro.

Grazie! La tua richiesta è stata ricevuta!
Oops! Something went wrong while submitting the form.