
ESSERE EDUCATI NON COSTA NIENTE, TRANNE CHE CON L'INTELLIGENZA ARTIFICIALE – ANCHE VOI DITE “BUONGIORNO”, “PER FAVORE” E “GRAZIE” A CHATGPT O AGLI ASSISTENTI DIGITALI COME ALEXA O SIRI? SAPPIATE CHE ESSERE GENTILI CON LE MACCHINE HA UN COSTO ENORME – PER SAM ALTMAN, CAPO DI OPENAI, I “PER FAVORE” E “GRAZIE” RIVOLTI A CHATGPT SONO COSTATI “DECINE DI MILIONI DI DOLLARI, SENZA CONTARE I CONSUMI ENERGETICI E L'IMPATTO AMBIENTALE – MA PERCHÉ SIAMO COSÌ EDUCATI CON I “BOT” E NON CON ALTRI STRUMENTI, COME IL TOSTAPANE, IL FRIGO O LA LAVAPIATTI? PER GLI ESPERTI…
Articolo di “Le Monde” – dalla rassegna stampa estera di “Epr comunicazione”
La maggior parte degli utenti usa toni gentili quando si rivolge a ChatGPT, Siri, Alexa e altri assistenti virtuali. Giusto o sbagliato? Scrive Le Monde. «Non saprei spiegarlo, ma mi sento a disagio se non dico “per favore” a ChatGPT... Mi sembra scortese, considerando il servizio che l'IA mi offre». Pauline Blanquet ha 25 anni. Come lei, molti utenti sono cortesi con ChatGPT, Siri, Alexa e altri agenti conversazionali.
Sarebbero addirittura la maggioranza: nel 2019, il Pew Research Center stimava che il 54% dei proprietari americani di altoparlanti connessi diceva “per favore”; più recentemente, un sondaggio del gruppo editoriale tecnologico Future ha valutato al 67% la percentuale di americani educati con i chatbot. “So che è solo un robot, ammette con un sospiro la giovane di Boulogne, ma non riesco a trattenermi”.
alexa l intelligenza artificiale di amazon echo
Come spiegarlo, quando non le verrebbe mai in mente di ringraziare altri strumenti, come il cacciavite o il tostapane? La differenza sta nei segnali “umani” inviati dalla macchina. È quanto dimostravano già nel 1996 due ricercatori di Stanford, Clifford Nass e Byron Reeves: se un dispositivo imita sufficientemente alcuni comportamenti sociali, “sarà trattato come un essere umano, anche se le persone sanno che è sciocco”.
Di fronte a un chatbot educato, tendiamo quindi a rispettare le norme sociali, spiega la sociologa digitale Valérie Beaudouin, direttrice degli studi presso l'École des hautes études en sciences sociales.
"Quando analizziamo le conversazioni umane, se io ti dico ‘buongiorno’, tu mi rispondi ‘buongiorno’. Ma i chatbot sono programmati per iniziare con una frase come 'buongiorno, cosa posso fare per te?'. Siamo quindi incoraggiati a essere educati, perché non farlo significherebbe infrangere le regole della conversazione“.
[…] Claire Guérin, 38 anni, project manager di Montreuil, insulta il chatbot di La Poste, che «risponde sempre fuori tema ». «Divento una persona orribile, e se dovremo avere a che fare con le macchine su larga scala, temo che questo mio lato verrà fuori molto più spesso».
L'uso della cortesia dipende anche da un altro fattore: il livello di competenza degli utenti, osserva Julia Velkovska, sociologa specializzata in intelligenza artificiale (IA) presso il dipartimento di scienze umane e sociali di Orange Labs.
«Con gli assistenti vocali, all'inizio le persone tendono a dire “buongiorno” e “grazie”. Ma più l'uso si diffonde, più si passerà a richieste efficaci, come “dai il meteo”. Più in generale, “la cortesia è segno di un uso non esperto, principiante o ludico. Perché ciò che conta affinché questi sistemi funzionino è parlare loro in modo conciso e chiaro. La cortesia diluisce il messaggio”.
CORTESIA COSTOSA
Un altro problema è che richiede più risorse energetiche. Sam Altman, CEO di OpenAI, ha lasciato intendere ad aprile che i “per favore” e “grazie” rivolti a ChatGPT sono costati “decine di milioni di dollari”. Questo perché le richieste più lunghe richiedono un po' più di lavoro, generando un costo energetico, finanziario e, in ultima analisi, ambientale.
“Aggiungere parole, frasi, ‘pensi che’... Tutti questi fronzoli hanno un costo”, conferma Luc Julia, co-creatore di Siri, attualmente direttore scientifico del gruppo Renault e autore di IA génératives, pas créatives, pubblicato all'inizio di maggio da Cherche midi. Ma la cortesia è solo una piccola parte del problema: è il funzionamento stesso di queste moderne IA, molto energivore, che rappresenta, secondo lui, una «totale aberrazione ecologica». […]
Antoine D., ingegnere 41enne dell'Île-de-France, non è d'accordo: «Se iniziamo a essere scortesi con le macchine, siamo messi male con gli esseri umani». Questo è uno dei timori di alcuni genitori, che vedono i propri figli dare ordini a altoparlanti connessi senza usare le buone maniere.
In risposta, Amazon e Google hanno incluso nel 2018 alcune funzionalità che incoraggiano i bambini a essere educati con queste macchine. Ma non c'è alcuna prova che la nostra cortesia nei loro confronti ci renda esseri umani più gentili, e viceversa: non esiste un consenso scientifico sulla questione.
«QUESTO RAFFORZA L'IDEA CHE L'IA SIA UNA PERSONA»
D'altra parte, ciò potrebbe avere un impatto sulla cortesia della macchina. È quanto afferma Kurtis Beavers, uno dei progettisti di Copilot, in un messaggio pubblicato sul sito di Microsoft che invita gli utenti di questo chatbot a essere cortesi: «Quando rileva cortesia, è più incline a essere cortese a sua volta. È la stessa cosa che succede con i colleghi, gli sconosciuti per strada e il barista che ti prepara il tuo americano freddo».
Un paragone che la ricercatrice Catherine Pelachaud, direttrice di ricerca del CNRS alla Sorbona e specialista in chatbot e informatica emotiva, trova discutibile. «Dire “buongiorno” e “grazie” rafforza l'idea che l'IA sia una persona, che abbia competenze affettive, il che può portare a derive. Bisogna chiederle quello che si vuole, punto, senza dover usare i modi. Per lei, la responsabilità ricade sui progettisti di queste IA: ”Danno loro un nome, le fanno parlare dei loro “sentimenti”, le fanno dire “mi dispiace davvero”... Ci si può sentire obbligati a rispondere “grazie”. Rafforzano questa umanizzazione della macchina”.
Luc Julia, nonostante sia all'origine di uno degli assistenti vocali più famosi al mondo, è d'accordo. «Siamo stati i primi a ricorrere all'antropomorfismo creando Siri, prima di renderci conto molto più tardi che era una stupidaggine, che le persone ci credevano davvero, che psicologicamente poteva causare danni».