intelligenza artificiale errori errore

LA POTENZA È NULLA SENZA IL CONTROLLO: LE INTELLIGENZE ARTIFICIALI ANALIZZANO SEMPRE PIÙ DATI MA FANNO ANCHE PIÙ ERRORI – I BOT SI BASANO SU SISTEMI MATEMATICI COMPLESSI CHE PERÒ NON POSSONO DETERMINARE COSA SIA VERO E COSA SIA FALSO. A VOLTE INVENTANO LE COSE: UN FENOMENO CHE I RICERCATORI CHIAMANO “ALLUCINAZIONI” E CHE INVECE CHE DIMINUIRE STA AUMENTANDO. NEI TEST DELLE AI PIÙ RECENTI HA RAGGIUNTO IL 79%...

Traduzione di un estratto dell'articolo di Cade Metz e Karen Weise per il “New York Times”

 

intelligenza artificiale nel lavoro

Il mese scorso, un bot dotato di intelligenza artificiale utilizzato per l’assistenza tecnica di Cursor — un promettente strumento per programmatori — ha avvisato diversi clienti di un presunto cambiamento nella politica aziendale: da quel momento, secondo il bot, sarebbe stato vietato usare Cursor su più di un computer.

 

In numerosi post indignati pubblicati sui forum online, i clienti si sono lamentati. Alcuni hanno cancellato i propri account Cursor. E la rabbia è aumentata quando si sono accorti della verità: il cambiamento di politica non esisteva.

 

«Non abbiamo alcuna politica del genere. Naturalmente siete liberi di usare Cursor su più dispositivi», ha scritto su Reddit il CEO e cofondatore dell’azienda, Michael Truell. «Purtroppo si è trattato di una risposta errata da parte di un bot AI per il supporto di primo livello.»

 

chatgpt - giornalismo

A più di due anni dall’arrivo di ChatGPT, aziende tecnologiche, impiegati e semplici consumatori stanno utilizzando bot dotati di intelligenza artificiale per un numero sempre maggiore di compiti. Tuttavia, non esiste ancora un modo per garantire che questi sistemi producano informazioni accurate.

 

Le tecnologie più recenti e avanzate — i cosiddetti sistemi di ragionamento sviluppati da aziende come OpenAI, Google e la start-up cinese DeepSeek — stanno generando più errori, non meno. Sebbene le loro capacità matematiche siano notevolmente migliorate, la loro padronanza dei fatti è diventata più instabile. Il motivo non è ancora del tutto chiaro.

 

cento uomini contro un gorilla immagine generata dall intelligenza artificiale

I bot AI odierni si basano su sistemi matematici complessi che apprendono le proprie competenze analizzando enormi quantità di dati digitali. Non sono in grado — e non possono esserlo — di determinare cosa sia vero e cosa sia falso. A volte, semplicemente, si inventano le cose: un fenomeno che alcuni ricercatori nel campo dell’intelligenza artificiale chiamano «allucinazioni». In un test, i tassi di allucinazione dei sistemi AI più recenti hanno raggiunto il 79%.

 

Questi sistemi utilizzano probabilità matematiche per indovinare la risposta più probabile, non seguono un insieme rigoroso di regole definite da ingegneri umani. Di conseguenza, commettono inevitabilmente un certo numero di errori. «Nonostante tutti i nostri sforzi, continueranno sempre ad allucinare», ha dichiarato Amr Awadallah, CEO della start-up Vectara — che sviluppa strumenti AI per le aziende — ed ex dirigente di Google. «Questo non scomparirà mai.»

 

CHATGPT 3

Da diversi anni, questo fenomeno solleva preoccupazioni sulla affidabilità di tali sistemi. Sebbene siano utili in alcune situazioni — come scrivere tesine, riassumere documenti di lavoro e generare codice informatico — i loro errori possono causare problemi.

 

I bot dotati di intelligenza artificiale associati ai motori di ricerca come Google e Bing a volte producono risultati talmente errati da risultare ridicoli. Se gli si chiede una buona maratona sulla costa occidentale, potrebbero suggerire una gara a Philadelphia. Se devono fornire il numero di nuclei familiari in Illinois, potrebbero citare una fonte che non include affatto quell’informazione.

 

Tali allucinazioni potrebbero non rappresentare un problema per molti utenti, ma diventano una questione seria per chi utilizza queste tecnologie per documenti legali, informazioni mediche o dati aziendali sensibili.

 

intelligenza artificiale PSICOTERAPIA

«Si finisce per passare molto tempo a cercare di capire quali risposte siano effettivamente fondate e quali no», ha affermato Pratik Verma, cofondatore e CEO di Okahu, un’azienda che aiuta le imprese a gestire il problema delle allucinazioni. «Se non si affrontano correttamente questi errori, si annulla di fatto il valore dei sistemi di intelligenza artificiale, che dovrebbero servire proprio ad automatizzare le attività.»

 

[…]

 

Da oltre due anni, aziende come OpenAI e Google hanno costantemente migliorato i loro sistemi di intelligenza artificiale, riducendo la frequenza di questi errori. Tuttavia, con l’introduzione dei nuovi sistemi di ragionamento, gli errori stanno aumentando. Secondo i test condotti dalla stessa OpenAI, le versioni più recenti dei suoi sistemi producono allucinazioni con una frequenza maggiore rispetto al sistema precedente.

 

risposte senza senso date da chatgpt 5

La società ha rilevato che o3 — il suo sistema più potente — ha generato allucinazioni nel 33% dei casi durante il test benchmark PersonQA, che consiste nel rispondere a domande su personaggi pubblici. Si tratta di un tasso più che doppio rispetto a quello del sistema di ragionamento precedente, chiamato o1. Il nuovo sistema o4-mini ha mostrato un tasso di allucinazioni ancora più elevato: 48%.

 

In un altro test denominato SimpleQA, che prevede domande più generiche, i tassi di allucinazione di o3 e o4-mini sono saliti rispettivamente al 51% e al 79%. Il sistema precedente, o1, aveva un tasso del 44%.

 

In un documento che descrive questi test, OpenAI ha affermato che è necessaria ulteriore ricerca per comprendere le cause di questi risultati. Poiché i sistemi di intelligenza artificiale apprendono da una quantità di dati superiore a quella che un essere umano può comprendere, i tecnologi fanno fatica a spiegare perché tali sistemi si comportino in un certo modo.

 

CHATGPT - ROBOT PER RACCOGLIERE I POMODORI

[…] I test condotti da aziende indipendenti e da ricercatori indicano che i tassi di allucinazione stanno aumentando anche per i modelli di ragionamento sviluppati da società come Google e DeepSeek.

 

[…]

 

Nell’ultimo anno e mezzo, aziende come OpenAI e Google sono riuscite a ridurre tali percentuali all’1-2%. Altre, come la start-up Anthropic di San Francisco, si sono mantenute intorno al 4%. Tuttavia, i tassi di allucinazione in questo test sono tornati a salire con l’arrivo dei modelli di ragionamento. Il sistema R1 di DeepSeek ha allucinato nel 14,3% dei casi. Il modello o3 di OpenAI è salito al 6,8%.

 

[…]

 

intelligenza artificiale nel lavoro

Per anni, aziende come OpenAI si sono basate su un concetto semplice: più dati internet venivano forniti ai loro sistemi di IA, migliori sarebbero stati i risultati. Ma ormai hanno esaurito quasi tutti i testi in inglese disponibili online, e ciò le ha costrette a trovare nuovi modi per migliorare i loro chatbot.

 

Per questo, molte aziende stanno facendo sempre più affidamento su una tecnica nota come “apprendimento per rinforzo”. Con questo metodo, un sistema può apprendere comportamenti attraverso il metodo del tentativo e dell’errore. La tecnica funziona bene in alcuni ambiti, come la matematica e la programmazione informatica, ma si sta rivelando carente in altri.

 

risposte senza senso date da chatgpt 6

[…]

 

Un’altra questione è che i modelli di ragionamento sono progettati per “pensare” ai problemi complessi prima di fornire una risposta. Ma cercando di affrontare un problema passo dopo passo, rischiano di generare errori a ogni passaggio. Gli errori si sommano via via che il sistema “pensa” più a lungo.

 

I bot più recenti mostrano agli utenti ciascun passaggio del processo, il che significa che gli utenti possono anche vedere ogni singolo errore. I ricercatori hanno inoltre scoperto che, in molti casi, i passaggi visualizzati da un bot non hanno alcuna relazione con la risposta finale fornita.

 

«Ciò che il sistema dice di pensare non è necessariamente ciò che realmente pensa», ha affermato Aryo Pradipta Gema, ricercatore di intelligenza artificiale presso l’Università di Edimburgo e borsista presso Anthropic.

CHATGPT risposte senza senso date da chatgpt 4

Ultimi Dagoreport

francesco gaetano caltagirone alberto nagel francesco milleri

DAGOREPORT - GONG! ALLE ORE 10 DI LUNEDÌ 16 GIUGNO SI APRE L’ASSEMBLEA DI MEDIOBANCA; ALL’ORA DI PRANZO SAPREMO L’ESITO DELLA GUERRA DICHIARATA DAL GOVERNO MELONI PER ESPUGNARE IL POTERE ECONOMICO-FINANZIARIO DI MILANO - LO SCONTRO SI DECIDERÀ SUL FILO DI UNO ZERO VIRGOLA - I SUDORI FREDDI DI CALTARICCONE DI FINIRE CON IL CULO A TERRA NON TROVANDO PIÙ A SOSTENERLO LA SEDIA DI MILLERI SAREBBERO FINITI – L’ATTIVISMO GIORGETTI, DALL’ALTO DELL’11% CHE IL MEF POSSIEDE DI MPS – L’INDAGINE DELLA PROCURA DI MILANO SU UNA PRESUNTA CONVERGENZA DI INTERESSI TRA MILLERI E CALTAGIRONE, SOCI DI MEDIOBANCA, MPS E DI GENERALI - ALTRO GIALLO SUL PACCHETTO DI AZIONI MEDIOBANCA (2%?) CHE AVREBBE IN TASCA UNICREDIT: NEL CASO CHE SIA VERO, ORCEL FARÀ FELICE LA MILANO DI MEDIOBANCA O LA ROMA DI CALTA-MELONI? AH, SAPERLO….

iran israele attacco netanyahu trump khamenei

DAGOREPORT - STANOTTE L'IRAN ATTACCHERÀ ISRAELE: RISCHIO DI GUERRA TOTALE - È ATTESO UN VIOLENTISSIMO ATTACCO MISSILISTICO CON DRONI, RISPOSTA DI TEHERAN ALL'"OPERAZIONE LEONE NASCENTE" DI NETANYAHU, CHE QUESTA MATTINA HA COLPITO IL PRINCIPALE IMPIANTO DI ARRICCHIMENTO IRANIANO, UCCIDENDO L'INTERO COMANDO DELL'ESERCITO E DELLE GUARDIE RIVOLUZIONARIE. LA MAGGIOR PARTE DI LORO È STATA FATTA FUORI NELLE PROPRIE CASE GRAZIE AI DRONI DECOLLATI DALLE QUATTRO BASI SOTTO COPERTURA DEL MOSSAD A TEHERAN - ISRAELE HA DICHIARATO LO STATO DI EMERGENZA: GLI OSPEDALI SPOSTANO LE OPERAZIONI IN STRUTTURE SOTTERRANEE FORTIFICATE - TRUMP HA AVVERTITO OGGI L'IRAN DI ACCETTARE UN ACCORDO SUL NUCLEARE "PRIMA CHE NON RIMANGA NULLA", SUGGERENDO CHE I PROSSIMI ATTACCHI DI ISRAELE CONTRO IL PAESE POTREBBERO ESSERE "ANCORA PIÙ BRUTALI" - VIDEO

lauren sanchez jeff bezos venezia

FLASH! – I VENEZIANI HANNO LA DIGA DEL MOSE PURE NEL CERVELLO? IL MATRIMONIO DI JEFF BEZOS È UNA FESTICCIOLA PER 250 INVITATI DISTRIBUITI TRA QUATTRO HOTEL: GRITTI, AMAN, CIPRIANI E DANIELI - NIENTE CHE LA SERENISSIMA NON POSSA SERENAMENTE SOSTENERE, E NULLA A CHE VEDERE CON LE NOZZE MONSTRE DELL'INDIANO AMBANI, CHE BLOCCARONO MEZZA ITALIA SOLO PER IL PRE-TOUR MATRIMONIALE – DITE AI MANIFESTANTI IN CORTEO "VENEZIA NON E' IN VENDITA" CHE I 10 MILIONI DI EURO SPESI DA MR.AMAZON SI RIVERSERANNO A CASCATA SU RISTORATORI, COMMERCIANTI, ALBERGATORI, GONDOLIERI E PUSHER DELLA CITTÀ…

tajani urso vattani peronaci azzoni antonio adolfo mario marco alessandro

DAGOREPORT - MAI SUCCESSO CHE LA LISTA DEI NUOVI AMBASCIATORI, SCODELLATA DA TAJANI, VENISSE SOSPESA PER L’OPPOSIZIONE DI UN MINISTRO (URSO) IRATO PERCHÉ IL SUO CONSIGLIERE DIPLOMATICO È FINITO A NAIROBI ANZICHÉ A BUCAREST - DAL CDM SONO USCITI SOLO GLI AMBASCIATORI STRETTAMENTE URGENTI. ALLA NATO SBARCA AZZONI, MENTRE PERONACI VOLA A WASHINGTON. E’ LA PRIMA VOLTA CHE LA PIÙ IMPORTANTE SEDE DIPLOMATICA VIENE OCCUPATA DA UN MINISTRO PLENIPOTENZIARIO ANZICHÉ DA UN AMBASCIATORE DI GRADO (FRA DUE ANNI È GIA’ PRONTO IL FIDO CONSIGLIERE DIPLOMATICO DI LADY GIORGIA, FABRIZIO SAGGIO) – IL MALDESTRO MARIO VATTANI IN GIAPPONE, ANCHE SE ERA WASHINGTON LA SCELTA IDEALE DELLA FIAMMA MAGICA (MATTARELLA AVREBBE SBARRATO IL PASSO) – LA LISTA DI TUTTI GLI AMBASCIATORI SOSPESI….

giorgia meloni antonio tajani matteo salvini giancarlo giorgetti

DAGOREPORT - A SINISTRA SI LITIGA MA A DESTRA VOLANO GLI STRACCI! - LA MAGGIORANZA SI SPACCA SU ROTTAMAZIONE E TAGLIO ALL'IRPEF - GIORGIA MELONI DAVANTI AI COMMERCIALISTI PARLA DI SFORBICIATA AL CUNEO E LODA MAURIZIO LEO, "DIMENTICANDOSI" DI GIORGETTI. CHE ALZA I TACCHI E SE NE VA SENZA PARLARE - LA LEGA PRETENDE UN'ALTRA ROTTAMAZIONE, FORZA ITALIA E FDI CHIEDONO PRIMA DI TAGLIARE LE TASSE AL CETO MEDIO - PECCATO CHE I SOLDI PER ENTRAMBI I PROVVEDIMENTI, NON CI SIANO - LA LISTA DEGLI SCAZZI SI ALLUNGA: RISIKO BANCARIO, CITTADINANZA, POLITICA ESTERA, FISCO E TERZO MANDATO - VANNACCI METTE NEL MIRINO I GOVERNATORI LEGHISTI ZAIA E FEDRIGA CON UNA SPARATA, A TREVISO, CONTRO IL TERZO MANDATO: IL GENERALE, NOMINATO VICESEGRETARIO DA SALVINI, È LA MINA CHE PUÒ FAR SALTARE IN ARIA LA FRAGILE TREGUA NEL CARROCCIO (E DUNQUE NEL CENTRODESTRA)

ignazio la russa giorgia meloin zaia fedriga salvini fontana

DAGOREPORT - MEGLIO UN VENETO OGGI O UNA LOMBARDIA DOMANI? È IL DILEMMA SPECULARE DI GIORGIA MELONI E MATTEO SALVINI – L’APERTURA SUL TERZO MANDATO DEL NASUTO DONZELLI È UN RAMOSCELLO D’ULIVO LANCIATO VERSO IL CARROCCIO (ANCHE PER DESTABILIZZARE IL CAMPO LARGO IN CAMPANIA) - MA ALLA PROPOSTA S’È SUBITO OPPOSTO IL GENERALE VANNACCI – L’EX TRUCE DEL PAPEETE, CHE HA CAPITO DI NON POTER GOVERNARE TUTTO IL NORD CON L'8%, È DISPOSTO A CEDERE IL PIRELLONE A FRATELLI D'ITALIA (SI VOTA TRA TRE ANNI), MA LA SORA GIORGIA RIFLETTE: SOTTO LA MADUNINA COMANDA LA RUSSA, E SAREBBE DIFFICILE SCALZARE LA SUA PERVASIVA RETE DI RELAZIONI – I MALIGNI MORMORANO: VANNACCI AGISCE COME GUASTATORE PER CONTO DI SALVINI, PER SABOTARE IL TERZO MANDATO, O PARLA PER SE'?