Scienza e tecnologia

L’AI riscrive le notizie (e spesso le sbaglia): lo studio che accusa Google e ChatGPT

Un nuovo studio internazionale coordinato dalla European Broadcasting Union e guidato dalla BBC mette a nudo un problema del quale avevamo già parlato in passato: gli assistenti AI distorcono le notizie quasi una volta su due.

Dopo aver analizzato più di 3.000 risposte generate da ChatGPT, Copilot, Gemini e Perplexity in 18 Paesi e 14 lingue, i ricercatori hanno scoperto che il 45% dei contenuti prodotti è impreciso, parziale o mal documentato. Una percentuale preoccupante, considerando che il web e la ricerca sono e saranno sempre più permeati di IA. E il peggio? I risultati sono simili ovunque. 

Quando l’AI riscrive le notizie (male)

Lo studio condotto da BBC ed EBU è il più ampio mai realizzato sul rapporto tra intelligenza artificiale e informazione. Ha coinvolto 22 emittenti pubbliche in 18 Paesi, tra cui la RAI, e ha messo alla prova quattro dei principali assistenti AI oggi in circolazione: ChatGPT, Copilot, Gemini e Perplexity. Il risultato è un quadro tutt’altro che incoraggiante.

Secondo l’analisi, il 45% delle risposte fornite da questi sistemi contiene almeno un errore significativo. In un terzo dei casi mancano o sono errate le fonti, mentre una risposta su cinque include informazioni false o inventate. Un dato che non dipende dalla lingua o dal Paese, ma che conferma la natura sistemica del problema: ovunque si chieda di riassumere una notizia all’AI, è probabile che la risposta sia parziale, distorta o imprecisa.

Jean Philip De Tender, direttore media dell’EBU, ha definito il fenomeno “un rischio per la fiducia pubblica“. Quando il lettore non sa più distinguere tra vero e falso, aggiunge, “finisce per non credere a nulla“, con conseguenze dirette sulla partecipazione democratica. E questo problema, a nostro parere, diventerà sempre più grave nel prossimo futuro.

Le colpe (e i limiti) dei chatbot più usati

Dietro la percentuale del 45% ci sono comunque differenze importanti tra i vari assistenti. Gemini, l’AI di Google, è quella che ha mostrato le maggiori criticità, con errori nel 76% delle risposte.

Un risultato più che doppio rispetto agli altri modelli, dovuto però soprattutto a problemi di attribuzione delle fonti: spesso mancano riferimenti, oppure vengono citati in modo errato o fuorviante. Tutto ciò non lascia ben sperare, e legittima le preoccupazioni che abbiamo espresso più volte su come Google stia impoverendo il web.

ChatGPT, Copilot e Perplexity non se la cavano molto meglio, pur mantenendo un livello di accuratezza leggermente superiore. In molti casi, le risposte contengono informazioni datate o dettagli mai pubblicati da alcuna testata. Vere e proprie allucinazioni insomma, presentate come fatti reali con assoluta confidenza, confondendo facilmente gli utenti meno esperti.

Le valutazioni dei giornalisti coinvolti si sono basate su criteri chiari: accuratezza, completezza delle fonti, distinzione tra opinione e fatti e capacità di fornire contesto. Eppure, nessuno degli strumenti ha superato il test. Per molti, la conclusione è evidente: gli assistenti AI non sono ancora pronti a sostituire il giornalismo umano, eppure, grazie alla spinta dei colossi del web in quella direzione, di fatto lo stanno già facendo.

Che fine farà l’informazione pubblica nell’era dell’AI?

La risposta dei media pubblici europei non si è fatta attendere. Dopo aver diffuso i risultati della ricerca, l’EBU ha pubblicato anche un “News Integrity in AI Assistants Toolkit” (qui il PDF), un insieme di linee guida pensate per aiutare sviluppatori e redazioni a migliorare la qualità delle risposte generate dall’intelligenza artificiale. L’obiettivo è duplice: insegnare alle AI a rispettare gli standard giornalistici e, allo stesso tempo, educare gli utenti alla verifica delle fonti.

L’organizzazione, insieme ai membri partecipanti, tra cui la RAI, chiede inoltre che l’Unione Europea e i governi nazionali applichino con rigore le leggi sull’integrità dell’informazione e sul pluralismo dei media. Secondo la BBC, che ha coordinato la ricerca, il rischio non è solo tecnologico ma culturale: se i cittadini cominciano a dubitare di tutto ciò che leggono, l’intero ecosistema dell’informazione perde credibilità. Per non parlare di quello che potrebbe succedere credendo a falsità o comunque a notizie non del tutto veritiere.

Eppure, le emittenti pubbliche non si dicono ostili all’AI. Come ha sottolineato Peter Archer, responsabile del programma Generative AI alla BBC, l’obiettivo è far sì che questi strumenti diventino alleati dell’informazione, non generatori di confusione. Ma finché non impareranno a distinguere fatti da opinioni, la prudenza resta la miglior forma di intelligenza. E magari qualche regola in più, fatta applicare davvero, non guasterebbe.


Source link

articoli Correlati

Back to top button
Translate »