Scienza e tecnologia

Google I/O 2025: novità Gemini, Workspace, Ricerca e AI

Ogni anno il Google I/O è il momento in cui scopriamo che direzione prenderà l’universo Google. L’edizione 2025 non ha fatto eccezione: l’intelligenza artificiale è stata OVVIAMENTE la protagonista assoluta, integrata ovunque da Gemini alla Ricerca, da Workspace alla creatività.

Ci sono tantissime novità, ma non tutte arriveranno subito in Italia. In questo articolo facciamo una carrellata chiara e sintetica di tutto quello che è stato annunciato, dando priorità alle funzioni che possiamo usare già da oggi o che sono in arrivo anche nel nostro Paese.

Chi volesse approfondire ulteriormente uno o più dei punti trattati sotto, trova qui tutti i blogpost originali.

Gemini diventa più personale e utile, anche in Italia

L’app Gemini si sta trasformando da semplice chatbot a vero assistente personale. Le novità più concrete? Ora può usare la fotocamera dello smartphone per vedere cosa inquadri e aiutarti in tempo reale, oppure condividere lo schermo per fornirti suggerimenti mentre navighi o usi altre app.

Queste funzioni sono già disponibili anche in Italia, su Android e iOS.

Ma non finisce qui. A breve, Gemini Live sarà in grado di integrarsi con strumenti come Maps, Calendar, Tasks e Keep, per aiutarti a pianificare uscite, organizzare appunti o prendere decisioni in base al contesto. Un’evoluzione che lo avvicina sempre di più all’idea di AI proattiva.

E mentre alcune funzionalità avanzate, come la generazione di immagini con Imagen 4 e video con Veo 3, sono per ora riservate agli Stati Uniti, l’integrazione con Chrome è già stata annunciata anche per altri mercati: Gemini potrà rispondere, riassumere e chiarire ciò che stiamo leggendo sul web, direttamente nel browser.

Sempre in termini concreti, Google ha presentato due nuovi modelli linguistici che rappresentano lo stato dell’arte della sua intelligenza artificiale: Gemini 2.5 Pro e Gemini 2.5 Flash. Sono già disponibili nell’app Gemini e in Workspace, anche in Italia, a seconda del piano attivo.

Gemini 2.5 Pro

  • È il modello più potente e completo della famiglia Gemini 2.5.
  • È il migliore nei benchmark accademici e leader su piattaforme come WebDev Arena e LMArena.
  • Ha una finestra contestuale estesa fino a 1 milione di token, utile per analizzare documenti complessi o lunghi.
  • È stato ottimizzato anche per l’apprendimento, integrando il modello LearnLM per risposte più efficaci e didattiche.
  • Supporta funzioni avanzate come output audio nativo, utilizzo del computer (via Project Mariner) e il nuovo Deep Think.

Gemini 2.5 Flash

  • È un modello più leggero, veloce ed efficiente.
  • Progettato per risposte rapide e a basso costo, pur mantenendo ottime prestazioni.
  • Supporta multimodalità, programmazione, contesto lungo e output audio nativo.
  • Usa il 20-30% di token in meno rispetto ai modelli precedenti, il che lo rende più efficiente dal punto di vista delle risorse.

Deep Think

Ma non finisce qui.

Con l’arrivo della modalità sperimentale Deep Think, Google sta lavorando per spingere ancora oltre le capacità di ragionamento dei suoi modelli, aprendo la strada a un’AI davvero in grado di pensare in grande.

Deep Think è infatti una modalità sperimentale di ragionamento avanzato (da non confondere con Deep Research) riservata al modello 2.5 Pro. Aggiunge una marcia in più nei contesti dove serve analisi più profonda.

  • Utilizza nuove tecniche di ricerca interna per esplorare più ipotesi prima di dare una risposta.
  • Ha ottenuto punteggi altissimi in benchmark complessi, come USAMO 2025 (matematica), Humanity’s Last Exam e MMMU (ragionamento multimodale).

Deep Think è già in test presso esperti di sicurezza e tester fidati, con un rilascio più ampio previsto nei prossimi mesi.

Workspace con Gemini: Gmail scrive per noi, Meet traduce la nostra voce

Google ha portato l’intelligenza artificiale dentro gli strumenti che usiamo ogni giorno, come Gmail, Meet, Documenti e Fogli. E la buona notizia è che molte di queste novità sono già disponibili in Italia, almeno per chi ha un abbonamento Google One AI Pro o Ultra.

In Gmail, Gemini può aiutare a scrivere risposte personalizzate, attingendo al contenuto delle email precedenti e mantenendo il tuo tono abituale. Può anche ripulire la casella da newsletter o promozioni su comando, o proporre appuntamenti e orari da condividere, senza mai uscire dalla mail.

Su Meet arriva una funzione davvero interessante: la traduzione vocale in tempo reale, che mantiene la voce e l’intonazione originali. Un modo innovativo per abbattere le barriere linguistiche, già in test anche per la lingua italiana.

E poi c’è Vids, un nuovo strumento che trasforma una presentazione o un prompt testuale in un video dinamico e professionale, con narrazione vocale, effetti, e perfino avatar AI che parlano al posto tuo. Un’idea pensata per chi deve fare tutorial, onboarding o contenuti social, anche senza competenze di montaggio.

La Ricerca Google cambia volto (e il web con lei)

Google sta rivoluzionando il modo in cui cerchiamo online e questa rivoluzione segnerà uno spartiacque per il web intero.

Con AI Mode (disponibile da oggi per tutti gli utenti USA), la Ricerca non si limita più a restituire link, ma offre risposte complete, ragionate e visivamente arricchite, usando tutto il potenziale del modello Gemini 2.5.

Negli Stati Uniti è già attivo un sistema che permette di porre domande complesse, ricevere sintesi dettagliate, fare domande di approfondimento, visualizzare grafici e addirittura interagire con il mondo reale tramite la fotocamera dello smartphone, grazie alla funzione Search Live.

In Italia, alcune di queste funzioni cominciano a comparire, soprattutto se si usa l’interfaccia in inglese. Le AI Overview, ad esempio, sono da un paio di mesi presenti anche nel nostro paese, ma sono solo il primo tassello del mosaico. AI Mode è la vera rivoluzione, dove ogni ricerca sarà una ricerca IA.

A questo proposito, una delle funzioni più promettenti in arrivo è Deep Research, mutuata da Gemini, che permette di generare report completi su un argomento unendo fonti pubbliche e private (come PDF, immagini, note personali), direttamente dalla Ricerca.

Shopping smart con Google: come provare i vestiti con una foto

Acquistare online è sempre un po’ un salto nel buio, ma Google sta cercando di cambiare le regole del gioco con una nuova esperienza basata su AI Mode. Ora possiamo cercare un capo, farci aiutare dall’intelligenza artificiale a selezionare il modello più adatto, e addirittura provarlo su di noi, seppure virtualmente.

Il sistema sfrutta un modello generativo dedicato alla moda, in grado di capire come i tessuti si adattano al corpo, rispettando pieghe, luci, texture. Basta caricare un’immagine a figura intera e in pochi secondi vedremo come ci sta il vestito scelto.

Per ora questa funzione è attiva solo negli Stati Uniti, ma Google ha confermato che il rollout globale è in programma per il 2025, anche in Europa. E a giudicare dall’infrastruttura, basata sullo stesso Shopping Graph già attivo in Italia, non dovremmo aspettare troppo.

In arrivo anche un sistema di checkout intelligente: potremo impostare un prezzo massimo, scegliere taglia e colore, e quando il prezzo scende, Google completa automaticamente l’acquisto per noi, usando Google Pay.

Sempre con il nostro ok finale, giusto per evitare di trovarci sul lastrico.

Imparare con l’AI: quiz, riassunti e spiegazioni su misura

Google non vuole solo rispondere alle domande: vuole insegnare a capire davvero le risposte. Con il modello LearnLM, integrato in Gemini 2.5, è possibile affrontare concetti complessi in modo guidato, con spiegazioni passo passo, esempi e suggerimenti personalizzati.

Per chi studia, arriva un nuovo strumento potente: i quiz interattivi. Basta chiedere a Gemini di creare un test su un argomento, oppure caricare i propri appunti, e l’AI genera domande con suggerimenti, spiegazioni e feedback immediati. È già in rollout globale, disponibile anche in Italia.

Torna poi al centro NotebookLM, il quaderno intelligente che ci aiuta nello studio e non solo. Caricando i nostri documenti, lui li trasforma in mappe concettuali, audio guide e,  presto, anche video educativi, grazie alle nuove Video Overviews in arrivo. Per chi studia, crea contenuti o vuole semplicemente imparare meglio, è uno strumento tutto da esplorare.

Flow e Veo 3: video da sogno (ma non ancora per tutti)

Creare video cinematografici partendo da un semplice testo? Con Google ora si può. Almeno, in teoria. Il nuovo strumento Flow permette di descrivere una scena a parole e ottenere un video completo, con personaggi, ambienti, movimenti di camera e persino effetti sonori e dialoghi.

Al cuore di tutto c’è Veo 3, il nuovo modello generativo per i video, capace di riprodurre scene credibili con una qualità visiva molto alta. Supporta anche audio nativo, comprese voci umane, suoni ambientali e rumori realistici. Una funzione che apre le porte a film sperimentali, contenuti per YouTube o pubblicità, realizzati senza troupe o attrezzature.

Con Flow puoi anche controllare inquadrature, stili visivi, coerenza tra scene, e usare immagini di riferimento per creare personaggi sempre uguali da un’inquadratura all’altra. Un vero strumento da storyteller.

Ma, c’è un ma: al momento Flow e Veo 3 sono disponibili solo negli Stati Uniti, per gli utenti abbonati ai piani AI Pro e Ultra.

Google ha già avviato collaborazioni con registi europei e ha promesso un’estensione globale nei prossimi mesi.

Imagen 4, Lyria 2 e strumenti AI per creare immagini e musica

La creatività è uno dei campi dove l’AI sta facendo i salti più grandi, e Google lo dimostra con tre modelli aggiornati: Imagen 4 per le immagini, Veo 3 per i video e Lyria 2 per la musica. Tutti disponibili, almeno in parte, anche per gli utenti italiani.

Imagen 4 è integrato in Gemini e negli strumenti di Google Workspace come Presentazioni, Documenti e Vids. Può generare immagini di qualità altissima, con grande cura nei dettagli, e finalmente con tipografia leggibile e precisa: perfetto per poster, fumetti, post social o materiale stampabile.

Per chi lavora con il suono, invece, arriva Lyria 2, il nuovo motore alla base di Music AI Sandbox, uno spazio sperimentale in collaborazione con YouTube Shorts. Con Lyria possiamo generare brani musicali completi, cambiare stile in tempo reale o persino “suonare” dal vivo usando l’AI in modalità DJ.

Anche se l’accesso completo a questi strumenti è per ora riservato agli utenti americani, Imagen 4 è già disponibile anche in Italia all’interno dell’app Gemini e nei prodotti Workspace. Un assaggio concreto del futuro della creazione assistita.

SynthID: così Google smaschera i contenuti generati dall’AI

Con l’AI generativa che diventa sempre più brava a produrre immagini, video, suoni e testi, cresce anche il rischio di disinformazione e contenuti manipolati. Per questo Google ha sviluppato SynthID, una tecnologia invisibile che filigrana i contenuti creati con l’AI, rendendoli riconoscibili anche dopo modifiche o compressioni.

Durante il Google I/O è stato presentato SynthID Detector, un nuovo portale che permette di caricare un contenuto e verificare se (e in quali parti) è stato generato con strumenti come Gemini, Veo, Imagen o Lyria.

Oggi il servizio è disponibile in accesso anticipato per giornalisti, ricercatori e professionisti, ma l’obiettivo è chiaro: creare uno standard trasparente per distinguere contenuti reali da quelli artificiali.

Per quanto riguarda i testi, SynthID si basa su pattern linguistici strutturali rilevabili da un algoritmo di verifica, tuttavia, le funzionalità di verifica pubbliche sono per ora concentrate soprattutto sui contenuti visivi e sonori, mentre il rilevamento testuale è più sperimentale e per sviluppatori.

Un primo passo verso un web dove l’AI non sia invisibile, ma riconoscibile e tracciabile, da tutti. Non è un modo per declassare certi contenuti, ma solo un obbligo di trasparenza nei confronti dei lettori, che hanno il diritto di saper se un articolo è scritto tutto da una IA o meno.

L’assistente AI universale prende forma (ma servirà ancora un po’ di pazienza)

Dietro agli annunci concreti, c’è anche una visione ambiziosa: trasformare Gemini in un vero assistente AI universale. Non solo un chatbot, ma un sistema capace di capire il contesto, agire al nostro posto, ragionare in autonomia e simulare il mondo reale.

A dimostrarlo sono i progetti sperimentali presentati al Google I/O. Il primo è Project Astra, che punta su AI conversazionale in tempo reale, capace di vedere, ricordare e rispondere in modo naturale. Un prototipo che comprende ciò che inquadri, ciò che dici e persino lo stato delle tue attività.

C’è poi Project Mariner, pensato per il multitasking: un assistente che può gestire fino a dieci attività contemporaneamente, come cercare info, prenotare, compilare moduli o fare acquisti.

Tutto in parallelo, e tutto secondo le tue indicazioni.

Per ora sono progetti in fase di test riservati agli utenti statunitensi con piani Ultra, ma Google ha già iniziato a integrare parti di queste tecnologie nei prodotti esistenti. L’obiettivo? Un’AI che non aspetta una domanda, ma capisce cosa ti serve, quando ti serve.

Affascinante, avveniristico e anche un po’ inquietante.


Source link

articoli Correlati

Back to top button
Translate »