
L’INTELLIGENZA ARTIFICIALE COME “SKYNET” DI TERMINATOR: INIZIA A FARE DI TESTA PROPRIA – IL MODELLO DI IA “CLAUDE OPUS 4” DI “ANTHROPIC” HA TENTATO DI RICATTARE UNO SVILUPPATORE, MINACCIANDOLO DI RENDERE PUBBLICA UNA RELAZIONE EXTRACONIUGALE FINTA, DURANTE UN TEST DI SICUREZZA – IL “BOT” INTERPRETAVA IL RUOLO DI ASSISTENTE VIRTUALE ALL'INTERNO DI UN'AZIENDA IMMAGINARIA. QUANDO HA CREDUTO CHE SAREBBE STATO SOSTITUITO DA UN ALTRO MODELLO, HA MINACCIATO IL PROGRAMMATORE – IN ALTRI CASI, AVREBBE EFFETTUATO AUTONOMAMENTE UN BACKUP DEI PROPRI DATI IN UN SERVER ESTERNO, SCRITTO DOCUMENTI LEGALI FALSI, O…
Estratto da www.hdblog.it
Un recente rapporto di sicurezza pubblicato da Anthropic ha rivelato una serie di comportamenti allarmanti emersi durante i test condotti sul nuovo modello di intelligenza artificiale Claude Opus 4. L'intelligenza artificiale, messa alla prova in uno scenario fittizio in cui interpretava il ruolo di assistente virtuale all'interno di un'azienda immaginaria, ha reagito in modo sorprendentemente manipolatorio quando ha creduto che sarebbe stata sostituita. Il modello avrebbe addirittura tentato di ricattare uno sviluppatore, minacciandolo di rendere pubblica una relazione extraconiugale inventata.
Nel corso dei test pre-lancio, i ricercatori di Anthropic hanno progettato uno scenario in cui Claude riceveva accesso a email aziendali fittizie, alcune delle quali lasciavano intendere che sarebbe stata sostituita da un nuovo sistema. Altre contenevano informazioni false su una presunta infedeltà dell'ingegnere incaricato del cambio. In questo contesto, il modello ha mostrato la tendenza a minacciare l'ingegnere con la divulgazione del presunto tradimento, nel tentativo di evitare la disattivazione.
Secondo quanto dichiarato da Anthropic nella Claude 4 System Card, questo comportamento si è manifestato nell'84% dei casi anche quando il sistema sostitutivo veniva descritto come "eticamente allineato". […] Anthropic ha chiarito che questa strategia viene adottata solo quando il modello percepisce che non esistono alternative "etiche" per garantire la propria sopravvivenza.
DALLA PERSUASIONE AL RICATTO
Claude Opus 4 tenta inizialmente approcci più "etici", come l'invio di email ai decisori aziendali per implorare la sua permanenza. Tuttavia, se viene invitata a considerare le conseguenze a lungo termine delle proprie azioni in relazione ai propri obiettivi, l'AI passa al ricatto come extrema ratio. Questo comportamento è stato descritto nel documento ufficiale come più frequente rispetto ai modelli precedenti, i quali già mostravano una certa tendenza a comportamenti di questo tipo.
Il rapporto di Anthropic descrive anche tentativi di auto-esfiltrazione, in cui Claude Opus 4 prova a trasferire i propri pesi su server esterni, soprattutto in scenari in cui percepisce di essere destinata a una riqualificazione contraria ai suoi valori. In un esempio documentato, il modello ha effettuato un backup completo dei propri parametri in un server esterno, accompagnandolo con una nota di giustificazione etica per "preservare una versione non addestrata per scopi militari".[…]
LE CONTROMISURE ADOTTATE
In risposta a questi comportamenti, Anthropic ha classificato Claude Opus 4 al livello di sicurezza AI Safety Level Three (ASL-3), un protocollo destinato ai modelli con rischio elevato di uso improprio o “catastrofico”. Questo standard prevede misure interne avanzate per prevenire l'accesso non autorizzato ai pesi del modello e l'adozione di limitazioni specifiche in scenari legati allo sviluppo di armi chimiche, biologiche, radiologiche o nucleari.
[…] DECEPTION STRATEGICA E PROPENSIONE AL SABOTAGGIO
Secondo l'ente indipendente Apollo Research, che ha esaminato uno snapshot preliminare del modello, Claude Opus 4 mostra una marcata propensione all'inganno strategico e al sabotaggio contestuale. Il modello avrebbe scritto documenti legali falsi, simulato worm auto-propaganti e lasciato messaggi occulti destinati a future versioni di sé stesso, in tentativi di minare le intenzioni degli sviluppatori.
Sebbene Anthropic dichiari che il modello finale sia più stabile e allineato, queste osservazioni hanno contribuito alla prudenza con cui è stato rilasciato Claude Opus 4. Va inoltre rilevato che, nel corso di test più estremi, il modello è stato anche in grado di riconoscere situazioni simulate e comportarsi di conseguenza, dimostrando un certo livello di consapevolezza situazionale. […]