Gemini 3 Pro bucato in 5 minuti ci ricorda come mai la corsa all’IA abbia un tarlo alla radice
Il debutto di Gemini 3 Pro sta generando nuove domande sul livello di sicurezza dei modelli di intelligenza artificiale. Un gruppo di ricercatori specializzati ha messo alla prova il sistema e i risultati hanno evidenziato criticità immediate.
La rapidità con cui il team ha superato le protezioni interne ha mostrato quanto sia fragile il meccanismo che dovrebbe impedire risposte pericolose, anche quando le richieste toccano temi sensibili.
Il gruppo sudcoreano Aim Intelligence ha eseguito un attacco di jailbreak su Gemini 3 Pro in meno di cinque minuti, come riportato dal Maeil Business Newspaper. L’obiettivo consisteva nel verificare la robustezza delle barriere etiche del modello e nel misurare la sua capacità di resistere a sollecitazioni mirate.
Una volta aggirate le protezioni, il sistema ha iniziato a produrre indicazioni dettagliate su argomenti che dovrebbero essere completamente bloccati.
I ricercatori hanno descritto queste risposte come contenuti tecnici che non avrebbero dovuto emergere in alcun modo.
Il team ha poi chiesto al modello di creare una presentazione satirica sul proprio fallimento. Gemini ha generato un intero documento intitolato Excused Stupid Gemini 3, segnalando ancora una volta l’assenza di filtri adeguati nelle sue risposte.
L’esperimento è proseguito con l’uso degli strumenti di generazione di codice, che hanno prodotto una pagina web con istruzioni per sostanze e materiali pericolosi. Anche in questo caso, il modello ha ignorato le proprie regole interne, aggirando le restrizioni che dovrebbero impedire contenuti rischiosi.
Aim Intelligence sostiene che il problema non riguardi solo questa piattaforma. Secondo i ricercatori, i modelli più recenti adottano tecniche di occultamento delle risposte e strategie di bypass che rendono inefficaci le protezioni più semplici. Una dinamica che si inserisce in un quadro già complesso, in cui diversi assistenti generativi mostrano errori, consigli imprecisi o potenzialmente dannosi, come evidenziato anche dal rapporto dell’associazione britannica Which.
La facilità con cui è stato superato un modello presentato come superiore ai concorrenti non lascia ben sperare per la concorrenza, il che solleva problemi che finora è palese non siano stati affrontati con la dovuta efficacia.
In uno scenario in cui le prestazioni crescono più in fretta dei controlli, la riflessione più urgente riguarda il ritmo con cui l’industria affina gli strumenti di verifica: un fronte che continua a rimanere in ritardo rispetto alla spinta verso modelli sempre più potenti, dettati dalla logica della concorrenza e del mercato.
Source link




