QUANDO L’INTELLIGENZA ARTIFICIALE INCONTRA UN DEFICIENTE REALE – STEVEN SCHWARTZ, UN AVVOCATO DI NEW YORK, HA USATO CHATGPT PER CERCARE DELLE SENTENZE CHE SOSTENESSERO LA SUA TESI DURANTE IL DIBATTIMENTO, MA LA LISTA FORNITA DALL'IA ERA COMPLETAMENTE INVENTATA! - L'AVVOCATO NEGLIGENTE HA COPIATO E INCOLLATO TUTTO SENZA FARE UNA VERIFICA - MORALE DELLA FAVA: HA FATTO UNA FIGURACCIA CON IL GIUDICE CHE NON RIUSCIVA A TROVARLE IN ARCHIVIO...

-


Estratto dell’articolo di Massimo Gaggi per il “Corriere della Sera”

 

open al chat gpt

Trent’anni di onesta carriera forense rovinati da un uso a dir poco maldestro della tecnologia di ChatGPT per argomentare un ricorso al tribunale di Manhattan di Roberto Mata, un passeggero di un volo Avianca che accusa l’aviolinea colombiana: ferito a un ginocchio da un carrello delle vivande durante un viaggio da El Salvador a New York.

 

Alla compagnia che ha chiesto l’archiviazione contestando anche la scadenza dei termini (il caso è del 2019), l’avvocato di Mata, Steven Schwartz, ha replicato seppellendo l’Avianca sotto una marea di precedenti — dal caso Martinez contro Delta Airlines a quello Zicherman contro Korean Air — nei quali le corti hanno dato ragione ai passeggeri respingendo le obiezioni delle aviolinee.

chatbot gpt

 

Non avendo trovato riscontro dei casi citati, e incalzato dai legali dell’Avianca, il giudice Kevin Castel ha chiesto a Schwartz gli estremi dei casi. L’avvocato, che si era ciecamente affidato a ChatGPT per istruire il caso, ha interrogato di nuovo l’intelligenza artificiale che gli ha fornito le date dei procedimenti, ha indicato i tribunali che si sono pronunciati, ha fornito perfino il numero delle sentenze.

 

Anche così, però, il giudice non trovava nulla. Davanti alla richiesta di esibire il testo integrale degli atti citati, ChatGPT ha finalmente ammesso di aver inventato. Si è anche detta sinceramente dispiaciuta per il disturbo arrecato.

 

chatgpt

Sette casi, tutti inventati di sana pianta. A quel punto il povero Steven ha dovuto ammettere di essersi affidato totalmente a ChatGPT. Non l’aveva mai usato prima e non sapeva che soffre di quelle che i tecnici chiamano «allucinazioni»: termine suggestivo ma fuorviante perché gli dà una connotazione umana. In realtà si tratta semplicemente di risposte casualmente false, inventate, che l’intelligenza artificiale (AI) mescola alle informazioni fondate che fornisce.

 

[…]