intelligenza artificiale errori errore

LA POTENZA È NULLA SENZA IL CONTROLLO: LE INTELLIGENZE ARTIFICIALI ANALIZZANO SEMPRE PIÙ DATI MA FANNO ANCHE PIÙ ERRORI – I BOT SI BASANO SU SISTEMI MATEMATICI COMPLESSI CHE PERÒ NON POSSONO DETERMINARE COSA SIA VERO E COSA SIA FALSO. A VOLTE INVENTANO LE COSE: UN FENOMENO CHE I RICERCATORI CHIAMANO “ALLUCINAZIONI” E CHE INVECE CHE DIMINUIRE STA AUMENTANDO. NEI TEST DELLE AI PIÙ RECENTI HA RAGGIUNTO IL 79%...

Traduzione di un estratto dell'articolo di Cade Metz e Karen Weise per il “New York Times”

 

intelligenza artificiale nel lavoro

Il mese scorso, un bot dotato di intelligenza artificiale utilizzato per l’assistenza tecnica di Cursor — un promettente strumento per programmatori — ha avvisato diversi clienti di un presunto cambiamento nella politica aziendale: da quel momento, secondo il bot, sarebbe stato vietato usare Cursor su più di un computer.

 

In numerosi post indignati pubblicati sui forum online, i clienti si sono lamentati. Alcuni hanno cancellato i propri account Cursor. E la rabbia è aumentata quando si sono accorti della verità: il cambiamento di politica non esisteva.

 

«Non abbiamo alcuna politica del genere. Naturalmente siete liberi di usare Cursor su più dispositivi», ha scritto su Reddit il CEO e cofondatore dell’azienda, Michael Truell. «Purtroppo si è trattato di una risposta errata da parte di un bot AI per il supporto di primo livello.»

 

chatgpt - giornalismo

A più di due anni dall’arrivo di ChatGPT, aziende tecnologiche, impiegati e semplici consumatori stanno utilizzando bot dotati di intelligenza artificiale per un numero sempre maggiore di compiti. Tuttavia, non esiste ancora un modo per garantire che questi sistemi producano informazioni accurate.

 

Le tecnologie più recenti e avanzate — i cosiddetti sistemi di ragionamento sviluppati da aziende come OpenAI, Google e la start-up cinese DeepSeek — stanno generando più errori, non meno. Sebbene le loro capacità matematiche siano notevolmente migliorate, la loro padronanza dei fatti è diventata più instabile. Il motivo non è ancora del tutto chiaro.

 

cento uomini contro un gorilla immagine generata dall intelligenza artificiale

I bot AI odierni si basano su sistemi matematici complessi che apprendono le proprie competenze analizzando enormi quantità di dati digitali. Non sono in grado — e non possono esserlo — di determinare cosa sia vero e cosa sia falso. A volte, semplicemente, si inventano le cose: un fenomeno che alcuni ricercatori nel campo dell’intelligenza artificiale chiamano «allucinazioni». In un test, i tassi di allucinazione dei sistemi AI più recenti hanno raggiunto il 79%.

 

Questi sistemi utilizzano probabilità matematiche per indovinare la risposta più probabile, non seguono un insieme rigoroso di regole definite da ingegneri umani. Di conseguenza, commettono inevitabilmente un certo numero di errori. «Nonostante tutti i nostri sforzi, continueranno sempre ad allucinare», ha dichiarato Amr Awadallah, CEO della start-up Vectara — che sviluppa strumenti AI per le aziende — ed ex dirigente di Google. «Questo non scomparirà mai.»

 

CHATGPT 3

Da diversi anni, questo fenomeno solleva preoccupazioni sulla affidabilità di tali sistemi. Sebbene siano utili in alcune situazioni — come scrivere tesine, riassumere documenti di lavoro e generare codice informatico — i loro errori possono causare problemi.

 

I bot dotati di intelligenza artificiale associati ai motori di ricerca come Google e Bing a volte producono risultati talmente errati da risultare ridicoli. Se gli si chiede una buona maratona sulla costa occidentale, potrebbero suggerire una gara a Philadelphia. Se devono fornire il numero di nuclei familiari in Illinois, potrebbero citare una fonte che non include affatto quell’informazione.

 

Tali allucinazioni potrebbero non rappresentare un problema per molti utenti, ma diventano una questione seria per chi utilizza queste tecnologie per documenti legali, informazioni mediche o dati aziendali sensibili.

 

intelligenza artificiale PSICOTERAPIA

«Si finisce per passare molto tempo a cercare di capire quali risposte siano effettivamente fondate e quali no», ha affermato Pratik Verma, cofondatore e CEO di Okahu, un’azienda che aiuta le imprese a gestire il problema delle allucinazioni. «Se non si affrontano correttamente questi errori, si annulla di fatto il valore dei sistemi di intelligenza artificiale, che dovrebbero servire proprio ad automatizzare le attività.»

 

[…]

 

Da oltre due anni, aziende come OpenAI e Google hanno costantemente migliorato i loro sistemi di intelligenza artificiale, riducendo la frequenza di questi errori. Tuttavia, con l’introduzione dei nuovi sistemi di ragionamento, gli errori stanno aumentando. Secondo i test condotti dalla stessa OpenAI, le versioni più recenti dei suoi sistemi producono allucinazioni con una frequenza maggiore rispetto al sistema precedente.

 

risposte senza senso date da chatgpt 5

La società ha rilevato che o3 — il suo sistema più potente — ha generato allucinazioni nel 33% dei casi durante il test benchmark PersonQA, che consiste nel rispondere a domande su personaggi pubblici. Si tratta di un tasso più che doppio rispetto a quello del sistema di ragionamento precedente, chiamato o1. Il nuovo sistema o4-mini ha mostrato un tasso di allucinazioni ancora più elevato: 48%.

 

In un altro test denominato SimpleQA, che prevede domande più generiche, i tassi di allucinazione di o3 e o4-mini sono saliti rispettivamente al 51% e al 79%. Il sistema precedente, o1, aveva un tasso del 44%.

 

In un documento che descrive questi test, OpenAI ha affermato che è necessaria ulteriore ricerca per comprendere le cause di questi risultati. Poiché i sistemi di intelligenza artificiale apprendono da una quantità di dati superiore a quella che un essere umano può comprendere, i tecnologi fanno fatica a spiegare perché tali sistemi si comportino in un certo modo.

 

CHATGPT - ROBOT PER RACCOGLIERE I POMODORI

[…] I test condotti da aziende indipendenti e da ricercatori indicano che i tassi di allucinazione stanno aumentando anche per i modelli di ragionamento sviluppati da società come Google e DeepSeek.

 

[…]

 

Nell’ultimo anno e mezzo, aziende come OpenAI e Google sono riuscite a ridurre tali percentuali all’1-2%. Altre, come la start-up Anthropic di San Francisco, si sono mantenute intorno al 4%. Tuttavia, i tassi di allucinazione in questo test sono tornati a salire con l’arrivo dei modelli di ragionamento. Il sistema R1 di DeepSeek ha allucinato nel 14,3% dei casi. Il modello o3 di OpenAI è salito al 6,8%.

 

[…]

 

intelligenza artificiale nel lavoro

Per anni, aziende come OpenAI si sono basate su un concetto semplice: più dati internet venivano forniti ai loro sistemi di IA, migliori sarebbero stati i risultati. Ma ormai hanno esaurito quasi tutti i testi in inglese disponibili online, e ciò le ha costrette a trovare nuovi modi per migliorare i loro chatbot.

 

Per questo, molte aziende stanno facendo sempre più affidamento su una tecnica nota come “apprendimento per rinforzo”. Con questo metodo, un sistema può apprendere comportamenti attraverso il metodo del tentativo e dell’errore. La tecnica funziona bene in alcuni ambiti, come la matematica e la programmazione informatica, ma si sta rivelando carente in altri.

 

risposte senza senso date da chatgpt 6

[…]

 

Un’altra questione è che i modelli di ragionamento sono progettati per “pensare” ai problemi complessi prima di fornire una risposta. Ma cercando di affrontare un problema passo dopo passo, rischiano di generare errori a ogni passaggio. Gli errori si sommano via via che il sistema “pensa” più a lungo.

 

I bot più recenti mostrano agli utenti ciascun passaggio del processo, il che significa che gli utenti possono anche vedere ogni singolo errore. I ricercatori hanno inoltre scoperto che, in molti casi, i passaggi visualizzati da un bot non hanno alcuna relazione con la risposta finale fornita.

 

«Ciò che il sistema dice di pensare non è necessariamente ciò che realmente pensa», ha affermato Aryo Pradipta Gema, ricercatore di intelligenza artificiale presso l’Università di Edimburgo e borsista presso Anthropic.

CHATGPT risposte senza senso date da chatgpt 4

Ultimi Dagoreport

francesco lollobrigida vino

DAGOREPORT - UNO DEI MISTERI PIÙ INDECIFRABILI DELLE CRONACHE POLITICHE DEGLI ULTIMI GIORNI HA UN NOME, UN COGNOME E UN "RAFFORZINO" IN TESTA: FRANCESCO LOLLOBRIGIDA. L’EX COGNATO D’ITALIA, È TORNATO IN PISTA AL TAVOLO DELLE NOMINE, E MOLTI OSSERVATORI POLITICI SONO RIMASTI SGOMENTI. È PROPRIO “LOLLO”, CHE ERA STATO RELEGATO A MACCHIETTA DI SE STESSO DALLE SORELLE MELONI? QUELLO DELLA “SOSTITUZIONE ETNICA”, DI “GESÙ CHE MOLTIPLICA IL VINO” E CHE FA FERMARE IL FRECCIAROSSA A CIAMPINO? GAFFE A PARTE, LO “STALLONE DI SUBIACO” HA UNA COSA CHE ARIANNA, DONZELLI E RAMPELLI SI SOGNANO: I VOTI – I RAPPORTI CON LA COLDIRETTI E GLI ANNI DI “GAVETTA” TRA VIA DELLA SCROFA E MONTECITORIO

steve bannon giuseppe conte matteo salvini davide casaleggio, gennaro vecchione jeffrey epstein - pietro dettori

DAGOREPORT - FANNO BENISSIMO QUEI SINISTRELLI DI BONELLI E FRATOIANNI A CHIEDERE CONTO A SALVINI DEI SUOI RAPPORTI CON STEVE BANNON. MA PERCHÉ NON FANNO LA STESSA DOMANDA AL LORO ALLEATO, GIUSEPPE CONTE? NEL 2018, IN PIENA EUFORIA GIALLO-VERDE, BANNON CALÒ SU ROMA PER INCONTRARE DAVIDE CASALEGGIO, A CUI SEMBRA ABBIA PROVATO A VENDERE UN SOFTWARE DI PROFILAZIONE – ERANO GLI ANNI FOLLI IN CUI TRUMP CHIAMAVA CONTE “GIUSEPPI”, E A ROMA ARRIVAVA IL MINISTRO DELLA GIUSTIZIA AMERICANO, PER INCONTRARE IL CAPO DEI SERVIZI, GENNARO VECCHIONE – I LEGAMI CON LA LINK UNIVERSITY, IL RUOLO DI PIETRO DETTORI, EX GURU DELLA COMUNICAZIONE GRILLINA ORA RICICLATOSI MELONIANO - TUTTI I MISTERI E LE INQUIETANTI COINCIDENZE CHE NEL 2018 PORTARONO IL SOVRANISMO DELLA LEGA E IL POPULISMO M5S A PALAZZO CHIGI, GOVERNO CONTE-SALVINI...

andrea pucci bocelli giorgia meloni carlo conti sanremo laura pausini

DAGOREPORT – BENVENUTI AL FESTIVAL DI ATREJU! “CI SIAMO PRESI FINALMENTE SANREMO”, GHIGNANO SODDISFATTI I CAPOCCIONI MELONIANI IN RAI: DOPO TRE ANNI E MEZZO DI OCCUPAZIONE FAMELICA DI POSTI DI POTERE, MANCAVA SOLO ESPUGNARE DEL TUTTO QUEL BARACCONE CANTERINO DIVENTATO UN DISTURBO MENTALE DI MASSA – IL CASO PUCCI? L’ENNESIMA ARMA DI DISTRAZIONE DI MASSA: IL COMICO “MARTIRE” SERVE PER COPRIRE LE DERILANTI DISAVVENTURE DEL FRATELLINO D’ITALIA, PATACCA PETRECCA - FINITO L’EFFETTO AMADEUS, CONTI SI RITROVA A SCODELLARE SUL PALCO DELL’ARISTON UN CAST DEBOLE, PIENO ZEPPO DI RELITTI E DI SCONOSCIUTI. BASTERÀ A RISOLLEVARE LO SHARE, MESSO A RISCHIO DA GERRY SCOTTI E DALLE PARTITE DI CHAMPIONS? – AI POVERI TELE-MORENTI SARÀ RIFILATO (DI NUOVO) ANCHE IL “VINCERÒ” DI BOCELLI…

john elkann theodore kyriakou repubblica

DAGOREPORT - COME MAI LA TRATTATIVA TRA JOHN ELKANN E IL MAGNATE GRECO THEO KYRIAKOU PER LA VENDITA DEL GRUPPO GEDI, SI È ARENATA? IL MOTIVO DELL’IMPASSE, CHE HA SPINTO I GIORNALISTI DI “REPUBBLICA” A DUE GIORNI DI SCIOPERO, GIRA PROSAICAMENTE INTORNO AL VALORE DELL'OPERAZIONE, STIMATA INTORNO A 140 MILIONI DI EURO - DOPO OLTRE 6 MESI IN CUI UN PLOTONE DI AVVOCATI E CONTABILI HA ROVESCIATO COME UN CALZINO CONTI, CONTRATTI E PENDENZE LEGALI DEL GRUPPO, IL GRECO ANTENNATO AVREBBE FATTO UN'OFFERTA DI 90 MILIONI - UNA “MISERIA” CHE SAREBBE STATA RIFIUTATA DA ELKANN CHE HA AVREBBE STIMATO SOLO IL POLO RADIOFONICO TRA GLI 86 E I 100 MILIONI, CON RADIO DEEJAY DA SOLA VALUTATA OLTRE I 40 MILIONI - RIUSCIRANNO ELKANN E KYRIAKOU A NEGOZIARE UN ACCORDO? AH, SAPERLO…

binaghi mezzaroma giampaolo rossi pier silvio berlusconi meloni alcaraz tennis sinner

DAGOREPORT - RAI ALLA DERIVA! DOPO L'OLIMPICA PATACCA-PETRECCA, ARRIVA UN’ALTRA MAZZATA PER TELE-MELONI: GIAMPAOLO ROSSI E CAMERATI RIESCONO NELL’IMPRESA DI PERDERE LE FUTURE PALLETTATE TRA SINNER E ALCARAZ: I DIRITTI IN CHIARO PER LE ATP FINALS DAL 2026, INFATTI, LI HA ACQUISTATI MEDIASET - DOPO LA MOSSA DI ATP MEDIA (IN CUI LA FITP HA UNA MINIMA PARTECIPAZIONE) DI CEDERE AL BISCIONE DI PIER SILVIO LA PARTE IN CHIARO DELL’EVENTO, BINAGHI SI PREPARA A TOGLIERE DI MEZZO LE MANINE DI “SPORT E SALUTE”, E QUINDI IL GOVERNO MELONI, DALLA GESTIONE DEL TORNEO CHE VALE OLTRE MEZZO MILIARDO DI EURO? L'ESECUTIVO AVEVA POSTO AL PRESIDENTE DELLA FITP COME CONDIZIONE PER OTTENERE I 100 MILIONI DI CONTRIBUTI PUBBLICI DI CONDIVIDERE CON “SPORT E SALUTE” LA GESTIONE DELLE ATP FINALS - LA SEDE DI TORINO CONFERMATA SOLO FINO AL 2026. POI... - VIDEO

giorgia meloni monica maggioni giampaolo rossi sigfrido ranucci bruno vespa report

DAGOREPORT - PER LEVARSELO DAI PIEDI QUEL ROMPICOJONI DI SIGFRIDO RANUCCI, L’ARMATA BRANCA-MELONI DEVE PORTARE UN PO’ DI PAZIENZA - E’ VERO CHE PORTANDO SUL GROPPONE 64 PRIMAVERE, IL CONDUTTORE DI “REPORT” PER RAGGIUNGERE L'ETÀ PENSIONABILE, FISSATA A 67 ANNI E 1 MESE PER I DIPENDENTI RAI, HA ANCORA DAVANTI TRE ANNI DI "REPORT" PER SCODELLARE INCHIESTE INVESTIGATIVE SULLE MAGAGNE INFINITE DEL POTERE, DA UNA PARTE - DALL’ALTRA, RANUCCI HA ACCUMULATO UNA TALE QUANTITÀ DI GIORNI DI FERIE NON GODUTE CHE TELE-MELONI NON PERDERÀ LA GOLOSA OCCASIONE DI INVITARLO AL PENSIONAMENTO NELLA PRIMAVERA DEL 2027, PROPRIO ALLA VIGILIA DELL’ELEZIONI POLITICHE – DI SICURO, TELE-MELONI NON OFFRIRA' UN PROVVIDENZIALE CONTRATTO DI COLLABORAZIONE ESTERNA CHE TRASFORMA IL GIORNALISTA MAGICAMENTE IN UN “ARTISTA”, COM'È SUCCESSO ALL’81ENNE BRUNO VESPA E A MONICA MAGGIONI...