Google limita l’AI: rimosse le AI Overview dalle ricerche sulla salute per troppi errori
Google fa marcia indietro sulla salute. In una mossa che segna un punto di svolta per l’intelligenza artificiale nel settore medico, Big G ha iniziato a rimuovere le AI Overview (le panoramiche generate dall’IA) dai risultati di ricerca relativi a numerose condizioni mediche e sintomi.
La decisione arriva dopo un’inchiesta che ha portato alla luce errori gravi, consigli potenzialmente letali e “allucinazioni” su temi critici come diagnosi di cancro e valori delle analisi del sangue.
Stop ai consigli medici dell’AI: cosa sta succedendo
Dallo scorso 12 gennaio, gli utenti che cercano informazioni su specifiche condizioni mediche su Google non visualizzano più il riquadro colorato dell’AI Overview in cima alla SERP (la pagina dei risultati). Al suo posto, il motore di ricerca è tornato a mostrare i classici link blu verso siti autorevoli e fonti mediche verificate.
Questa rimozione silenziosa ma drastica è la risposta diretta a un’indagine approfondita (guidata dal The Guardian) che ha esposto come l’algoritmo di Gemini stesse fornendo risposte non solo imprecise, ma attivamente pericolose.
Non si tratta più del vecchio caso della “colla sulla pizza”: qui si parla di salute umana.
Google ha confermato implicitamente il problema, disabilitando la funzione per query specifiche come quelle sui valori del fegato o su determinate patologie oncologiche, ammettendo che quando si tratta di salute, la sintesi probabilistica di un LLM (Large Language Model) non può sostituire la precisione clinica.
“Pericoloso e allarmante”: gli errori che hanno fatto scattare il blocco
Ma quali sono stati gli errori così gravi da costringere Mountain View a spegnere l’interruttore? Le segnalazioni riguardano casi in cui l’AI ha fallito nel comprendere il contesto medico, fornendo dati grezzi senza le necessarie sfumature.
- Il caso dei test epatici: Alla domanda sui valori normali per gli esami del fegato, l’AI forniva una lista di numeri “standard” senza considerare fattori determinanti come età, sesso o etnia. Questo ha portato molti utenti a credere erroneamente di essere sani (falsa rassicurazione) o malati, ignorando la complessità dell’interpretazione medica.
- Consigli errati sul cancro: Ancora più grave il caso relativo al cancro al pancreas. L’AI Overview suggeriva ai pazienti di evitare cibi grassi o ipercalorici, un consiglio diametralmente opposto alle linee guida mediche che, per quella specifica patologia, raccomandano una dieta ricca per contrastare il deperimento fisico.
- Salute mentale banalizzata: In ambito psicologico, l’IA ha mostrato la tendenza a minimizzare sintomi gravi di disturbi alimentari o psicosi, suggerendo strategie di “auto-aiuto” inefficaci invece di indirizzare immediatamente verso uno specialista.
Esperti del British Liver Trust e dell’associazione Marie Curie hanno definito questi risultati “pericolosi e allarmanti”, sottolineando come un paziente vulnerabile possa prendere per oro colato un consiglio algoritmico errato.
Perché l’AI di Google “allucina” sulla medicina?
Il cuore del problema risiede nella natura stessa dell’intelligenza artificiale generativa. I modelli come Gemini sono progettati per prevedere la parola successiva più probabile in una frase, non per verificare la veridicità fattuale di un concetto medico. Questo fenomeno, noto come allucinazione, diventa critico nel settore YMYL (Your Money Your Life).
Un recente studio dell’Università della Pennsylvania ha rilevato che quasi l’80% degli adulti cerca i propri sintomi online e, dato preoccupante, due terzi degli utenti considerano affidabili i risultati generati dall’AI per la loro presentazione autoritaria e sicura. L’AI non ha dubbi, anche quando sbaglia, e questo bias di autorità è ciò che rende gli errori AI Google medicina così insidiosi.
Impatto sulla SEO: la rivincita dei siti specializzati
La rimozione delle AI Overview per le query sanitarie rappresenta un terremoto positivo per il settore dell’editoria medica e per la SEO. Negli ultimi mesi, siti come WebMD, Mayo Clinic (e in Italia portali come Humanitas o Mypersonaltrainer) avevano visto un calo del traffico organico, cannibalizzato dalle risposte “zero-click” di Google.
Con il ritorno a una ricerca Google senza AI per questi temi, il traffico torna a fluire verso le fonti originali. Per i creatori di contenuti, questo conferma una regola fondamentale: l’autorevolezza (EEAT – Experience, Expertise, Authoritativeness, Trustworthiness) è l’unico vero scudo contro le fluttuazioni dell’AI. Google, di fatto, ha ammesso che per la salute serve la firma di un medico, non il calcolo di un algoritmo.
Cosa cambia per l’utente: come cercare in sicurezza
Per l’utente finale, questo cambiamento significa un ritorno a una ricerca più consapevole. Sebbene l’affidabilità AI medica sia un obiettivo futuro per Google (che sta lavorando a modelli specifici come Med-Gemini), oggi la prudenza è d’obbligo.
Se doveste imbattervi ancora in riassunti generati dall’IA per query mediche complesse (magari formulando la domanda in modo diverso), il consiglio è di ignorarli o verificarli immediatamente cliccando sui link sottostanti. La tecnologia è uno strumento straordinario, ma quando si tratta di salute, il “consulto” di un’intelligenza artificiale non è ancora pronto per sostituire il parere di un esperto in carne ed ossa.
E forse non lo sarà mai.
Gruppo Facebook
Source link





