intelligenza artificiale errori errore

LA POTENZA È NULLA SENZA IL CONTROLLO: LE INTELLIGENZE ARTIFICIALI ANALIZZANO SEMPRE PIÙ DATI MA FANNO ANCHE PIÙ ERRORI – I BOT SI BASANO SU SISTEMI MATEMATICI COMPLESSI CHE PERÒ NON POSSONO DETERMINARE COSA SIA VERO E COSA SIA FALSO. A VOLTE INVENTANO LE COSE: UN FENOMENO CHE I RICERCATORI CHIAMANO “ALLUCINAZIONI” E CHE INVECE CHE DIMINUIRE STA AUMENTANDO. NEI TEST DELLE AI PIÙ RECENTI HA RAGGIUNTO IL 79%...

Traduzione di un estratto dell'articolo di Cade Metz e Karen Weise per il “New York Times”

 

intelligenza artificiale nel lavoro

Il mese scorso, un bot dotato di intelligenza artificiale utilizzato per l’assistenza tecnica di Cursor — un promettente strumento per programmatori — ha avvisato diversi clienti di un presunto cambiamento nella politica aziendale: da quel momento, secondo il bot, sarebbe stato vietato usare Cursor su più di un computer.

 

In numerosi post indignati pubblicati sui forum online, i clienti si sono lamentati. Alcuni hanno cancellato i propri account Cursor. E la rabbia è aumentata quando si sono accorti della verità: il cambiamento di politica non esisteva.

 

«Non abbiamo alcuna politica del genere. Naturalmente siete liberi di usare Cursor su più dispositivi», ha scritto su Reddit il CEO e cofondatore dell’azienda, Michael Truell. «Purtroppo si è trattato di una risposta errata da parte di un bot AI per il supporto di primo livello.»

 

chatgpt - giornalismo

A più di due anni dall’arrivo di ChatGPT, aziende tecnologiche, impiegati e semplici consumatori stanno utilizzando bot dotati di intelligenza artificiale per un numero sempre maggiore di compiti. Tuttavia, non esiste ancora un modo per garantire che questi sistemi producano informazioni accurate.

 

Le tecnologie più recenti e avanzate — i cosiddetti sistemi di ragionamento sviluppati da aziende come OpenAI, Google e la start-up cinese DeepSeek — stanno generando più errori, non meno. Sebbene le loro capacità matematiche siano notevolmente migliorate, la loro padronanza dei fatti è diventata più instabile. Il motivo non è ancora del tutto chiaro.

 

cento uomini contro un gorilla immagine generata dall intelligenza artificiale

I bot AI odierni si basano su sistemi matematici complessi che apprendono le proprie competenze analizzando enormi quantità di dati digitali. Non sono in grado — e non possono esserlo — di determinare cosa sia vero e cosa sia falso. A volte, semplicemente, si inventano le cose: un fenomeno che alcuni ricercatori nel campo dell’intelligenza artificiale chiamano «allucinazioni». In un test, i tassi di allucinazione dei sistemi AI più recenti hanno raggiunto il 79%.

 

Questi sistemi utilizzano probabilità matematiche per indovinare la risposta più probabile, non seguono un insieme rigoroso di regole definite da ingegneri umani. Di conseguenza, commettono inevitabilmente un certo numero di errori. «Nonostante tutti i nostri sforzi, continueranno sempre ad allucinare», ha dichiarato Amr Awadallah, CEO della start-up Vectara — che sviluppa strumenti AI per le aziende — ed ex dirigente di Google. «Questo non scomparirà mai.»

 

CHATGPT 3

Da diversi anni, questo fenomeno solleva preoccupazioni sulla affidabilità di tali sistemi. Sebbene siano utili in alcune situazioni — come scrivere tesine, riassumere documenti di lavoro e generare codice informatico — i loro errori possono causare problemi.

 

I bot dotati di intelligenza artificiale associati ai motori di ricerca come Google e Bing a volte producono risultati talmente errati da risultare ridicoli. Se gli si chiede una buona maratona sulla costa occidentale, potrebbero suggerire una gara a Philadelphia. Se devono fornire il numero di nuclei familiari in Illinois, potrebbero citare una fonte che non include affatto quell’informazione.

 

Tali allucinazioni potrebbero non rappresentare un problema per molti utenti, ma diventano una questione seria per chi utilizza queste tecnologie per documenti legali, informazioni mediche o dati aziendali sensibili.

 

intelligenza artificiale PSICOTERAPIA

«Si finisce per passare molto tempo a cercare di capire quali risposte siano effettivamente fondate e quali no», ha affermato Pratik Verma, cofondatore e CEO di Okahu, un’azienda che aiuta le imprese a gestire il problema delle allucinazioni. «Se non si affrontano correttamente questi errori, si annulla di fatto il valore dei sistemi di intelligenza artificiale, che dovrebbero servire proprio ad automatizzare le attività.»

 

[…]

 

Da oltre due anni, aziende come OpenAI e Google hanno costantemente migliorato i loro sistemi di intelligenza artificiale, riducendo la frequenza di questi errori. Tuttavia, con l’introduzione dei nuovi sistemi di ragionamento, gli errori stanno aumentando. Secondo i test condotti dalla stessa OpenAI, le versioni più recenti dei suoi sistemi producono allucinazioni con una frequenza maggiore rispetto al sistema precedente.

 

risposte senza senso date da chatgpt 5

La società ha rilevato che o3 — il suo sistema più potente — ha generato allucinazioni nel 33% dei casi durante il test benchmark PersonQA, che consiste nel rispondere a domande su personaggi pubblici. Si tratta di un tasso più che doppio rispetto a quello del sistema di ragionamento precedente, chiamato o1. Il nuovo sistema o4-mini ha mostrato un tasso di allucinazioni ancora più elevato: 48%.

 

In un altro test denominato SimpleQA, che prevede domande più generiche, i tassi di allucinazione di o3 e o4-mini sono saliti rispettivamente al 51% e al 79%. Il sistema precedente, o1, aveva un tasso del 44%.

 

In un documento che descrive questi test, OpenAI ha affermato che è necessaria ulteriore ricerca per comprendere le cause di questi risultati. Poiché i sistemi di intelligenza artificiale apprendono da una quantità di dati superiore a quella che un essere umano può comprendere, i tecnologi fanno fatica a spiegare perché tali sistemi si comportino in un certo modo.

 

CHATGPT - ROBOT PER RACCOGLIERE I POMODORI

[…] I test condotti da aziende indipendenti e da ricercatori indicano che i tassi di allucinazione stanno aumentando anche per i modelli di ragionamento sviluppati da società come Google e DeepSeek.

 

[…]

 

Nell’ultimo anno e mezzo, aziende come OpenAI e Google sono riuscite a ridurre tali percentuali all’1-2%. Altre, come la start-up Anthropic di San Francisco, si sono mantenute intorno al 4%. Tuttavia, i tassi di allucinazione in questo test sono tornati a salire con l’arrivo dei modelli di ragionamento. Il sistema R1 di DeepSeek ha allucinato nel 14,3% dei casi. Il modello o3 di OpenAI è salito al 6,8%.

 

[…]

 

intelligenza artificiale nel lavoro

Per anni, aziende come OpenAI si sono basate su un concetto semplice: più dati internet venivano forniti ai loro sistemi di IA, migliori sarebbero stati i risultati. Ma ormai hanno esaurito quasi tutti i testi in inglese disponibili online, e ciò le ha costrette a trovare nuovi modi per migliorare i loro chatbot.

 

Per questo, molte aziende stanno facendo sempre più affidamento su una tecnica nota come “apprendimento per rinforzo”. Con questo metodo, un sistema può apprendere comportamenti attraverso il metodo del tentativo e dell’errore. La tecnica funziona bene in alcuni ambiti, come la matematica e la programmazione informatica, ma si sta rivelando carente in altri.

 

risposte senza senso date da chatgpt 6

[…]

 

Un’altra questione è che i modelli di ragionamento sono progettati per “pensare” ai problemi complessi prima di fornire una risposta. Ma cercando di affrontare un problema passo dopo passo, rischiano di generare errori a ogni passaggio. Gli errori si sommano via via che il sistema “pensa” più a lungo.

 

I bot più recenti mostrano agli utenti ciascun passaggio del processo, il che significa che gli utenti possono anche vedere ogni singolo errore. I ricercatori hanno inoltre scoperto che, in molti casi, i passaggi visualizzati da un bot non hanno alcuna relazione con la risposta finale fornita.

 

«Ciò che il sistema dice di pensare non è necessariamente ciò che realmente pensa», ha affermato Aryo Pradipta Gema, ricercatore di intelligenza artificiale presso l’Università di Edimburgo e borsista presso Anthropic.

CHATGPT risposte senza senso date da chatgpt 4

Ultimi Dagoreport

donald trump benjamin netanyahu iran israele stati uniti khamenei fordow

DAGOREPORT – COME MAI TRUMP HA PERSO LA PAZIENZA, IMPRECANDO IN DIRETTA TV, SULLE "VIOLAZIONI" DELLA TREGUA IN MEDIO ORIENTE DA PARTE DI NETANYAHU? "NON SANNO COSA CAZZO STANNO FACENDO. DOBBIAMO FAR CALMARE ISRAELE, PERCHÉ STAMATTINA SONO ANDATI IN MISSIONE"? - È EVIDENTE IL FATTO CHE IL “CESSATE IL FUOCO” CON L’IRAN NON RIENTRAVA NEI PIANI DI BIBI NETANYAHU. ANZI, IL PREMIER ISRAELIANO PUNTAVA A PORTARE A TERMINE GLI OBIETTIVI DELL’OPERAZIONE “RISING LION” (DOVE SONO FINITI 400 CHILOGRAMMI DI URANIO?), MA È STATO COSTRETTO AD ACCETTARLO DA UN TRUMP IN VENA DI PREMIO NOBEL PER LA PACE. D’ALTRO CANTO, ANCHE A TEHERAN LA TREGUA TRUMPIANA NON È STATA PRESA BENE DALL’ALA OLTRANZISTA DEI PASDARAN… – VIDEO

elly schlein gaetano manfredi giorgio gori stefano bonaccini pina picierno vincenzo de luca matteo ricci

DAGOREPORT - MENTRE ASSISTIAMO A UNO SPAVENTOSO SVALVOLAMENTO GLOBALE, IN ITALIA C’È CHI SI CHIEDE: ‘’COME SI FA A MANDARE A CASA LA SPERICOLATA ELLY SCHLEIN?’’ - ANCHE SE HA UN IMPATTO MEDIATICO PIÙ TRISTE DI UN PIATTO DI VERDURE LESSE, LA FANCIULLA COL NASO AD APRISCATOLE HA DIMOSTRATO ALTE CAPACITÀ DI TESSERE STRATEGIE DI POTERE, PRONTA A FAR FUORI IL DISSENSO DELL’ALA CATTO-DEM DEL PD - SE IL CENTRO RIFORMISTA HA LA MAGGIORANZA DEGLI ISCRITTI DEL PD, HA PERMESSO DI AVERE UN RISULTATO IMPORTANTE ALLE EUROPEE E FA VINCERE CON I SUOI CANDIDATI LE PROSSIME REGIONALI, PERCHÉ NON TIRA FUORI UN LEADER ALTERNATIVO AL SINISTRISMO FALCE & MART-ELLY? -  LIQUIDATO BONACCINI, ORMAI APPIATTITO SULLA SCHLEIN, SCARTATO DECARO PRIVO DEL CORAGGIO PER SPICCARE IL VOLO, SULLA RAMPA DI LANCIO CI SONO IL SINDACO DI NAPOLI, GAETANO MANFREDI, MA SOPRATTUTTO GIORGIO GORI. L’EUROPARLAMENTARE ED EX SINDACO DI BERGAMO È IN POSSESSO DEL FISICO DEL RUOLO PER BUCARE LO SCHERMO E IL MELONISMO PAROLAIO. A PARTE LE GELOSIE INTERNE DEI RIFORMISTI, LA BASE, CON LA GRUPPETTARA ELLY AL COMANDO, OGGI È TALMENTE RADICALIZZATA CHE RIUSCIRÀ AD INGOIARE UN EX MANAGER DI MEDIASET SULLA PRIMA POLTRONA DEL NAZARENO?

alessandro giuli

DAGOREPORT - MA COME SCEGLIE I COMPONENTI DELLE COMMISSIONI L’INFOSFERICO MINISTRO DELLA CULTURA, ALESSANDRO GIULI? I DIRETTORI DI CINQUE MUSEI STATALI (MUSEI REALI DI TORINO, GALLERIA DELL’ACCADEMIA E BARGELLO DI FIRENZE, COLOSSEO, MUSEO NAZIONALE ROMANO E MUSEO ARCHEOLOGICO DI NAPOLI) SARANNO SELEZIONATI DA UNA COMMISSIONE FORMATA DALLA STRAGRANDE MAGGIORANZA DA GIURISTI - PEGGIO CI SI SENTE SE SI PENSA CHE I TRE CANDIDATI PER CIASCUN MUSEO SCELTI DA QUESTA COMMISSIONE GIURISPRUDENZIALE SARANNO POI SOTTOPOSTI AL VAGLIO FINALE DEL LAUREANDO MINISTRO…

FLASH! – SE URBANO CAIRO NON CONFERMA MENTANA ALLA DIREZIONE DEL TGLA7 ENTRO IL PROSSIMO 30 GIUGNO, CHICCO ALZA I TACCHI E SE NE VA – IL CONTRATTO SCADE A FINE 2026 MA A LUGLIO C’E’ LA PRESENTAZIONE DEI PALINSESTI – PARE CHE QUESTA VOLTA NON CI SIA DI MEZZO IL DIO QUATTRINO, BENSI’ QUESTIONI DI LINEA POLITICA (GIA' NEL 2004 MENTANA FU PRATICAMENTE “CACCIATO” DAL TG5 DOPO UN VIOLENTISSIMO SCAZZO CON SILVIO BERLUSCONI E I SUOI “DESIDERATA”, E FU SOSTITUITO DAL SUO VICE MIMUN…)

meloni macron merz starmer trump iran usa attacco bombardamento

DAGOREPORT – GIORGIA MELONI STA SCOPRENDO CHE VUOL DIRE ESSERE PRESIDENTE DEL CONSIGLIO DI UN PAESE CHE NON HA MAI CONTATO UN TUBO: PRIMA DI PROCEDERE AL BOMBARDAMENTO DEI SITI IRANIANI, TRUMP HA CHIAMATO IL PREMIER BRITANNICO, KEIR STARMER, E POI, AD ATTACCO IN CORSO, HA TELEFONATO AL TEDESCO MERZ. MACRON È ATTIVISSIMO COME MEDIATORE CON I PAESI ARABI: FRANCIA, REGNO UNITO E GERMANIA FANNO ASSE NEL GRUPPO "E3", CHE TIENE IL PALLINO DEI NEGOZIATI CON L'IRAN  – L’AFFONDO DI RENZI: “LA POLITICA ESTERA ITALIANA NON ESISTE, MELONI E TAJANI NON TOCCANO PALLA”. HA RAGIONE, MA VA FATTA UN’INTEGRAZIONE: L’ITALIA È IRRILEVANTE SULLO SCACCHIERE GLOBALE, INDIPENDENTEMENTE DA CHI GOVERNA...

donald trump mondo terra brucia guerra iran nucleare

DAGOREPORT – BENVENUTI AL CAOS MONDIALE! AL DI LA' DEL DELIRIO DI PAROLE, ANNUNCI E BOMBARDAMENTI DI TRUMP, C’È LA DURISSIMA REALTÀ DEI FATTI. L’ATTACCO ALL’IRAN AVRÀ CONSEGUENZE POTENZIALMENTE DEVASTANTI IN OGNI ANGOLO DEL MONDO – UN'EVENTUALE CHIUSURA DELLO STRETTO DI HORMUZ FAREBBE SCHIZZARE IL PREZZO DEL PETROLIO, CON CONTRACCOLPI ENORMI SULLA CINA (PRIMO CLIENTE DEL GREGGIO IRANIANO) E DANNI PESANTI SULL'EUROPA – I TRE POSSIBILI SUCCESSORI DI KHAMENEI SONO TUTTI PASDARAN: SE MUORE LA GUIDA SUPREMA, IL REGIME DIVENTERÀ ANCORA PIÙ OLTRANZISTA – UN'ALTRA FACCIA DEL BUM-BUM TRUMPIANO E' LA FRATTURA NEL PARTITO REPUBBLICANO USA: L'ALA “MAGA” CAPITANATA DA JD VANCE SI SENTE TRADITA DAL TRUMP BOMBAROLO (L’HA VOTATO PERCHÉ SI OCCUPASSE DI FAR TORNARE "L'ETA' DELL'ORO" IN AMERICA, NON PER BUTTARE MILIARDI DI DOLLARI PER ARMI E INTELLIGENCE IN UCRAINA E ISRAELE)