Friuli Venezia Giulia

Il pendolo emotivo. Intelligenza Artificiale in redazione, tra lavoro a quattro mani e paura della macchina

15 maggio 2026 – ore 08.30 – Più se ne parla, più il dibattito sull’uso, sempre più esteso, dell’intelligenza artificiale finisce per assomigliare a un pendolo scentrato: ricorrente, irriverente, spesso pretestuoso, a volte pornografico – e non nel senso del deepfake che ti spoglia (in realtà non spoglia nulla: sostituisce solo con un corpo matematico ideale, sviluppato da modelli, quello reale), ma della spettacolarizzazione del tema e della provocazione gratuita, condita con toni da tragedia. Questo pendolo privo di equilibrio oscilla di continuo tra entusiasmo e allarme, tra slogan e dati, tra fatti e opinioni. In parallelo, nel frattempo e fuori dalle redazioni dei media, l’IA entra nella vita di ogni giorno con usi spesso banali e quasi sempre utili: sintesi di mail, traduzioni rapide, promemoria vocali, assistenti per lo studio, per la casa e per l’ufficio, che spazzano via dalla nostra giornata i compiti più stressanti e l’organizzano in maniera da renderci finalmente in grado di sopportare l’iper-connettività (ascoltare i quattro minuti di vocale WhatsApp dell’amica non serve più: lo fa l’agente, e ti riassume il contenuto). Non è solo “tecnologia da specialisti”: è infrastruttura condivisa e ottimizzata, anche da un punto di vista di costi; quando l’avviciniamo al giornalismo, però, l’IA solleva questioni di verità e responsabilità più acute. La speranza che l’inserimento dell’Intelligenza Artificiale nella giornata tipica di una redazione giornalistica porta, è quella che ci siano più velocità, verifiche, tempo per l’inchiesta. Da un lato si promettono redazioni più rapide e attrezzate a distinguere il falso dal vero; dall’altro spaventa il timore che i robot scrivano al posto dei giornalisti, e gli agenti IA sfuggano a qualsiasi controllo, che il diritto d’autore cessi d’esistere. Il tutto andrebbe riportato a una base razionale: la fotografia che emerge infatti dalle esperienze concrete — al netto dell’imballaggio che rischia di tendere al fazioso, e al netto del confezionamento retorico — è più sfumata e, per molti versi, molto incoraggiante. L’IA, quando entra in redazione, lo fa come strumento di supporto, non come sostituto del professionista. Chi l’ha adottata per primo a livello globale, e poi in Italia, ha seguito questa logica: potenziare analisi e fact-checking, liberare tempo per gli approfondimenti, e consentire una maggiore condivisione delle informazioni all’interno di gruppi di lavoro, mantenendo il controllo editoriale.

Il primo grande gruppo a introdurre in modo sistematico automazione e poi IA è stato l’Associated Press (AP): nel luglio 2014 l’agenzia annunciò la partnership con Automated Insights e Zacks Investment Research per automatizzare articoli sugli utili trimestrali delle società quotate in borsa: all’epoca si parlava soprattutto di algoritmi deterministici, molto diversi dai modelli generativi odierni, addestrati su grandi quantità di dati. Secondo quanto documentato dall’AP stessa nell’evoluzione dei propri progetti editoriali, prima dell’automazione si producevano, su quel segmento, circa 300 pezzi ogni tre mesi; dopo il lancio si arrivò rapidamente a oltre 3.000 articoli automatizzati per trimestre, sempre con revisione umana prima della pubblicazione. L’agenzia fu esplicita: nessun taglio di posti legato a quel progetto, ma ridistribuzione del lavoro verso reportage, inchieste e analisi, mentre la macchina gestiva il flusso ripetitivo dei numeri. Da allora l’AP ha esteso l’uso di quella tecnologia a trascrizioni, traduzioni, sintesi sportive, arricchimento dei lanci con contesto; con l’avvento dell’IA generativa ha avviato collaborazioni (tra cui con OpenAI) e strumenti come AP Verify, presentata come suite “dai giornalisti per i giornalisti” e comprendente ricerca inversa su immagini, analisi video, geolocalizzazione e monitoraggio dei Social network. L’Italia è invece un paese di codici, accordi, osservatori, sabbie mobili. Che arriva tardi, e prova a recuperare. In Italia, tra i primi media ristrutturatisi in senso digitale avanzato figura Il Sole 24 Ore: nel giugno 2024 (dieci anni dopo AP) il gruppo ha adottato un codice di autodisciplina sull’IA, elaborato assieme a esperti e in dialogo con il quadro normativo europeo. Nel luglio 2024, poi, RCS MediaGroup ha annunciato un accordo (sempre con OpenAI, inizialmente quasi sola sulla scena e ora comunque, con il suo ChatGPT, azienda di riferimento) per un assistente virtuale destinato al Corriere della Sera. Anche in questo caso la cornice all’interno del quale l’Intelligenza Artificiale ha trovato implementazione è stata quella di affiancamento all’offerta editoriale. ANSA si è poi accodata operando con un osservatorio automatizzato dedicato e il servizio ANSA Verified per il fact-checking su temi come scienza, salute, ambiente; GEDI ha annunciato, nel settembre 2024, una collaborazione con Reply per innovazione di processi e prodotti. Il Foglio ha spinto sull’acceleratore l’anno scorso, con Il Foglio AI (marzo 2025), presentato come test su quattro pagine per circa un mese: obiettivo dichiarato, nelle parole del direttore Claudio Cerasa, portare l’IA “dalla teoria alla pratica” e misurarne impatto e limiti, con enfasi su “fare le domande giuste” e sulla regia umana.

Uso diffuso, quindi, e quotidianità? Si direbbe senz’altro di sì. Questi casi citati condividono tutti un denominatore: l’IA che lavora al servizio del giornalista. L’Ordine dei Giornalisti, nel suo Report 2025, ne descrive l’impatto in termini non certo di catastrofe, ma di trasformazione marcata e veloce dei flussi di lavoro, e forte bisogno di nuove competenze, che mancano; indubbiamente il giornalista di domani, quello della GEO (o Generative Engine Optimization: necessità di scrivere un articolo per fare in modo che l’IA possa capirlo e ottimizzarne la diffusione) non avrà più nulla a che fare con quello di oggi (che si trova ancora in difficoltà di fronte a un web browser), e il giornalista di ieri (quello delle redazioni dove la pagina si componeva su carta: nel 2024, la stampa cartacea, come fonte di notizie, era al 13 per cento, dato Istat, in caduta verticale) è già di fatto scomparso, e si vede solo nei film. Del resto, cose come queste si sono succedute a ogni rivoluzione tecnologica, e perché mai la nostra professione avrebbe dovuto attraversare questo passaggio standosene affacciata alla finestra: la necessità di nuove regole è già stata sottolineata. A livello macro, il World Economic Forum nei report sul futuro del lavoro segnala riqualificazioni in arrivo su ampie fette degli addetti, nei prossimi anni, con una stima indicativa di impatto superiore al 15 per cento in contesti già orientati all’adattamento alle tecnologie digitali. In altri settori sarà molto più forte. Sic sunt res: così stanno le cose. Lacci e lacciuoli normativi, di difficile effetto pratico, non le potranno cambiare, al massimo possono riuscire a rendere l’Italia e l’Europa ancor meno competitive di oggi (l’esempio farsesco della normativa sui Cookie, i “biscottini” d’informazione con il bottoncino “clicca sì o non potrai fare niente”, dovrebbe bastarci), e forse sarebbe il caso di iniziare a fare il contrario.

Fact-checking e open data: gli esempi internazionali di organizzazioni come Full Fact (Regno Unito) sono virtuosi, e sviluppano strumenti di monitoraggio e supporto alla verifica su testo e altri formati, usati da network di editori e fact-checker. Nel giornalismo, quando i flussi di lavoro sono progettati bene e supportati dalla tecnologia, questo si traduce in molto più tempo per la verifica e il colloquio diretto con le fonti, che male convivevano con i ritmi imposti dalla fame di notizie tipica dello smartphone. Ad esempio, l’IA può segnalare molto rapidamente schemi ripetitivi in insiemi di dati pubblici (come contratti, bilanci aziendali, Open data ma ci sono molti altri esempi, dal numero di navi ferme a Hormuz ai dati di Flightradar24) tali da destare sospetto o da evidenziare comunque un fenomeno in corso sottoponendolo poi all’attenzione del giornalista in carne e ossa. Esiste un modo per identificare per davvero una notizia scritta da un’Intelligenza Artificiale? Diciamo pure che se il modello usato per scriverla non è da due soldi, no (la complessità di generare un’immagine, o ancora di più un video, che passi la verifica è invece proporzionalmente più grande). OpenAI ha ritirato il classificatore “AI Classifier” nell’estate 2023, citando come ragione una bassa accuratezza nei risultati ufficiali dello strumento nel momento in cui veniva applicato alla lettura di testi. Studi e benchmark sulla rilevazione di notizie (ad esempio lavori sul dataset RAID e successive versioni) mostrano un calo di efficacia in scenari realistici (ovvero nel momento in cui l’agente IA che scrive è professionale e usa parafrasi, modelli nuovi, testi brevi e materiale sorgente di qualità per l’apprendimento). Alcuni strumenti commerciali più perfezionati, come GPTZero e simili, possono avere utilità contestuale (ad esempio in ambito accademico, per la verifica di saggi lunghi) ma il tasso di falsi positivi resta non trascurabile, e c’è un forte rischio di ingiustizie, ovvero di accusare il giornalista umano di essere un’IA e viceversa. Sanzioni e decisioni basate solo su un rilevatore che dica: “è IA / non è IA” sono quindi molto pericolose. Le idee che parlano di “divieti preventivi”, di “inibizioni”, altrettanto.

E la trasparenza? Rimane un requisito di base per non perdere la fiducia del lettore, e d’altra parte perderlo, se lo scopo dovesse essere quello d’ingannarlo, sarebbe giusto. Molte redazioni, sulla scia di pratiche di labeling dei contenuti prodotti già in discussione a livello internazionale da diverso tempo, dichiarano quando un contenuto è generato da IA o quando l’IA affianca un processo di lavoro all’interno di una redazione. È la stessa strada seguita dal nostro giornale: mediaimmagine (trieste.news e i supplementi di Udine e Gorizia, veneziaorientale.news, anche attraverso progetti cofinanziati da Regione Veneto e Regione Friuli-Venezia Giulia, e fondi europei FESR per lo sviluppo regionale, usa l’IA sotto supervisione umana, per la riduzione o eliminazione delle attività ripetitive, il miglioramento della qualità dei contenuti prodotti e la verifica delle notizie, quotidianamente già dal 2023, e ha scelto di mettere a disposizione il know-how sviluppato su questi temi anche in termini di servizi offerti a collaboratori e clienti. Il giornalismo del prossimo decennio difficilmente sarà “scritto dai robot” nel senso che fa paura; potrà essere più rapido sulle routine, più armato di verifiche dove gli strumenti sono integrati con criterio, e più concentrato su ciò che resta propriamente umano: scelta delle notizie, contesto, etica e firma.

Articolo di Roberto Srelz

[nota di colore: l’immagine è stata generata con Stability; il testo è integralmente dell’autore]




Source link

articoli Correlati

Back to top button
Translate »