Oggi confronto un manager delle tecnologie con l’intelligenza artificiale: entrambi sono convincenti
Oggi mi lancio in un volo pindarico e confronto un manager delle tecnologie con l’intelligenza artificiale (IA), suggerendo una caratteristica che li accomuna: entrambi producono risposte convincenti. Di fronte a problemi complessi, non dicono quasi mai “non lo so”. Offrono invece spiegazioni coerenti, plausibili, ben costruite. Funziona, soprattutto con chi non ha gli strumenti per verificare. È ormai evidente che, esibendo lo stesso grado di sicurezza, l’IA può fornire risposte corrette, ma anche sbagliate. Non è un errore occasionale, è una caratteristica strutturale. Il problema non è l’errore, ma quanto sia credibile. Una risposta espressa con cautela si espone al dubbio, mentre si tende a credere ad una risposta espressa con sicurezza, se non si hanno strumenti conoscitivi per riconoscerne la fallacia.
Ed è qui che il parallelo tra l’IA e Cingolani diventa illuminante. Nel caso di Cingolani, il meccanismo si è costruito nel tempo. L’Istituto Italiano di Tecnologia nasce con finanziamenti pubblici ingenti e una promessa chiara: trasformare buona scienza in tecnologia, in industria, in sviluppo. Una promessa che ha giustificato un trattamento eccezionale rispetto al resto del sistema della ricerca. La promessa non è stata mantenuta in modo proporzionato agli investimenti. I risultati ci sono stati: pubblicazioni, brevetti, startup. Ma il punto non è questo: è la distanza tra ciò che era stato annunciato e ciò che è stato realizzato. Critiche interne al mondo della ricerca hanno sottolineato proprio questo scarto, mettendo in discussione trasparenza, produttività e ricadute effettive dell’Istituto rispetto alle risorse ricevute. Quando la promessa è tecnologica, il criterio non è accademico. È industriale. Basta un confronto empirico.
Ho visitato il Technion di Haifa e non mi hanno mostrato brevetti, ma prodotti, aziende, tecnologie entrate nel mercato. La differenza non è retorica, è strutturale. È la differenza tra conoscenza e trasformazione della conoscenza in realtà economica. Cingolani ha costruito la propria figura proprio su questo passaggio: dalla scienza alla tecnologia. Ed è stato molto efficace nel raccontarlo. Mostrando il suo piccolo robot che dà la mano a Mattarella ma che non è mai andato in produzione (il robot, non Mattarella).
Poi Cingolani passa alla politica, come ministro della transizione ecologica. Anche qui il problema non è personale, ma strutturale: un ministero che richiede una visione ecologica è stato guidato con un’impostazione prevalentemente tecnologica, spesso accompagnata da affermazioni semplificate o controverse su temi ecologici complessi, di cui i suoi sponsor politici non erano evidentemente esperti. Non è un caso che il suo mandato sia stato segnato da polemiche e contestazioni pubbliche. Quando lo sentivo parlare di ecologia, da ecologo, faticavo a riconoscermi in quel linguaggio. Volevano affidargli anche lo Human Technopole di Milano, se è per questo. Il salto successivo è Leonardo, cioè l’industria della difesa. E qui il percorso si chiude, per ora. In un contesto di crescita della domanda di armamenti, i risultati economici possono essere positivi indipendentemente dalla qualità del management. Le guerre fanno crescere le industrie belliche.
Attribuire automaticamente questi risultati a chi guida l’azienda è una scorciatoia interpretativa. Ma se, oltre a questo, le capacità dei sistemi vengono raccontate in modo troppo ottimistico, se la promessa supera ciò che è realisticamente dimostrabile, come nel caso del Michelangelo Dome, allora il problema non è più tecnico, è reputazionale.
Se chi si è fidato scopre che la promessa era gonfiata, entra in gioco la dissonanza cognitiva. Se ho dato fiducia a qualcuno e quella fiducia mi porta a scelte sbagliate, ho due possibilità: riconoscere l’errore o difendere la scelta. La seconda è la più frequente. Non perché siamo irrazionali, ma perché difendere la scelta significa difendere noi stessi. Ed è qui che il parallelo con l’IA diventa completo. Se uso un sistema che mi dà risposte convincenti e, in base a quelle, costruisco le mie decisioni, mi trovo nella stessa situazione. Se emergono errori, non difendo il sistema: difendo la mia scelta di averlo usato. Il rischio non è di essere ingannati, ma di continuare a crederci. Nel caso di Cingolani, quello che sta emergendo potrebbe essere il contrario della dissonanza cognitiva: chi si era fidato smette di difendere la propria scelta. Spesso il sistema si auto-protegge. Ma quando non lo fa, la caduta è rapida (pur con un paracadute milionario). E Cingolani, infatti, è stato licenziato. Per la prima volta nella sua carriera non aver mantenuto
promesse mirabolanti gli è costato il posto.
A questo punto può nascere, e sta nascendo, la narrazione del martire: non è stato lui a sbagliare, è il potere che non lo ha capito. È una reinterpretazione che evita di affrontare la questione più scomoda: la distanza tra promessa e risultato. Il punto, ancora una volta, non è personale. È sistemico. Viviamo in un mondo in cui la capacità di costruire narrazioni convincenti conta spesso più della capacità di produrre risultati verificabili. Questo vale per la politica, per la tecnologia, e sempre di più per gli strumenti che utilizziamo per capire il mondo. L’IA e Cingolani, in questo senso, non sono eccezioni. Sono sintomi di un sistema che premia chi ha una risposta per tutto e penalizza chi ammette i limiti della conoscenza.
E allora la domanda non è se fidarsi o meno. La domanda è: siamo ancora capaci di verificare? Perché il vero problema non è essere indotti in errore ma di continuare a difendere quell’errore per non ammettere di esserci fidati eccessivamente.
Source link



