COSA FA L’EUROPA PER PROTEGGERCI DAI RISCHI DELL’INTELLIGENZA ARTIFICIALE? NIENTE, ANZI: VUOLE DEREGOLAMENTARE LA CORSA ALLO SVILUPPO DELLA TECNOLOGIA – IL 19 NOVEMBRE LA COMMISSIONE UE VARERÀ UN NUOVO PACCHETTO PER SEMPLIFICARE LE NORME IN MERITO ALL’IA – VERRA’ MODIFICATA ANCHE LA NORMATIVA SULLA PROTEZIONE DEI DATI (GDPR), COSÌ DA PERMETTERE AGLI SVILUPPATORI DI USARE I DATI PERSONALI DEGLI UTENTI PER ADDESTRARE L’INTELLIGENZA ARTIFICIALE (DI CUI ANCORA NON CONOSCIAMO I RISCHI)
Alessandra Briganti per l’ANSA
europa e intelligenza artificiale 6
Eliminare gli ostacoli nella corsa all'intelligenza artificiale per fare dell'Europa un continente leader nella nuova tecnologia: con questo orizzonte, la Commissione si appresta a varare il nuovo pacchetto di semplificazione del digitale in programma il 19 novembre.
Tra le leggi interessate dalla revisione, la storica normativa sulla protezione dei dati (Gdpr) e la legge europea sull'IA, licenziata poco più di un anno fa. Nel rapporto sulla competitività, l'ex primo ministro Mario Draghi aveva indicato proprio i due regolamenti come un fattore di freno all'innovazione nel settore dell'IA.
europa e intelligenza artificiale 5
Tra le modifiche proposte al Gdpr, spunta il riconoscimento del legittimo interesse come base giuridica per sviluppare i sistemi di IA. Il legittimo interesse è una delle base giuridiche previste dal Gdpr per considerare lecito il trattamento dei dati e consente ai responsabili di avanzare con il trattamento dei dati personali senza ottenere il consenso esplicito degli interessati.
La proposta è ancora in fase di discussione, ma se confermata permetterebbe agli sviluppatori di IA di avvalersi dell'interesse legittimo per addestrare i sistemi di IA senza chiedere il consenso agli utenti, fatto salvo il diritto a opporsi alla raccolta dei propri dati personali.
europa e intelligenza artificiale 4
Le modifiche, ora in discussione, andrebbero in realtà a consolidare una pratica esistente. Lo sviluppo di modelli di IA generativa, alla base di chatbot come ChatGPT di OpenAI e Gemini di Google, richiede l'addestramento su miliardi di dati che vengono raccolti su internet.
A maggio aveva fatto discutere la decisione di Meta di acquisire i post di Instagram e Facebook per allenare i propri modelli di IA senza il consenso esplicito degli utenti. L'approccio era stato poi avallato dall'autorità irlandese per la protezione dei dati, responsabile della supervisione del Gdpr su Meta.
europa e intelligenza artificiale 1
Le norme sulla privacy non sono le sole a essere sacrificate sull'altare dell'IA. A farne le spese, sarà lo stesso AI Act e in particolare le regole sui modelli ad alto rischio, quelli cioè che comportano un potenziale rischio per sicurezza, salute, diritti fondamentali, ambiente e democrazia.
Nella bozza non si indica una data, sebbene le indiscrezioni che si rincorrono da mesi parlino di un rinvio di un anno, al 2027, perché il lavoro sugli standard necessario alla loro attuazione è in ritardo. Ritardi che secondo palazzo Berlaymont rischiano di "compromettere l'effettiva entrata in vigore delle disposizioni chiave".
europa e intelligenza artificiale 3
Tra le modifiche proposte, anche il rinvio di un anno delle sanzioni per le violazioni degli obblighi di trasparenza, la semplificazione degli oneri di conformità per le aziende e un maggior accentramento dell'attuazione della legge in capo all'Ufficio IA, istituito dall'AI Act in seno alla Commissione.