Accogliere l’innovazione ma impedirle di erodere i fondamenti della convivenza
Quando si parla di Intelligenza artificiale, l’attenzione è stata, da più di due anni, catturata dalle applicazioni generative: strumenti che scrivono testi, producono immagini, compongono musica o simulano conversazioni. È stato un fenomeno sorprendente e in parte destabilizzante, perché ha reso evidente che attività che pensavamo riservate all’ingegno umano potevano essere emulate da un calcolo statistico sofisticato. La nuova frontiera è rappresentata da sistemi che non attendono più soltanto un comando, ma che sanno muoversi da soli, imparano dalle interazioni, prendono iniziative. Li chiamiamo agenti, ma in realtà sono molto più di una funzione tecnica: sono strumenti che assumono comportamenti proattivi, capaci di organizzare il lavoro, fare scelte economiche, orientare la nostra esperienza digitale quotidiana.
Per comprendere le implicazioni di questa svolta non basta guardare all’efficienza o alle opportunità di mercato. Bisogna interrogarsi su cosa accade ai principi che sorreggono la convivenza civile in Europa, e che derivano da una lunga tradizione costituzionale. Il primo di questi principi è la centralità dell’essere umano. Non è uno slogan astratto: significa che la persona non può mai essere ridotta a semplice strumento dell’efficienza tecnica. Eppure, con gli agenti intelligenti, la tentazione è proprio questa: lasciare che sia un software a occuparsi di scelte che un tempo appartenevano alla sfera individuale, trasformando l’uomo in un osservatore delle decisioni prese al suo posto.
Il secondo punto riguarda la capacità di scelta. Le costituzioni europee hanno sempre legato la libertà alla possibilità di decidere consapevolmente, con informazioni adeguate e senza pressioni indebite. Nei sistemi generativi il problema era la qualità dei contenuti: quanto erano affidabili, quanto potevano manipolare l’opinione pubblica. Con gli agenti, però, si apre un terreno più insidioso. Non è solo questione di ricevere informazioni corrette: è la logica stessa della decisione che rischia di essere spostata altrove. L’agente anticipa i desideri, costruisce percorsi, realizza azioni prima ancora che l’individuo abbia deciso. Così la libertà diventa apparente: restano le forme esteriori della scelta, ma manca il momento autentico della deliberazione personale.
Il terzo tema è la tutela della mente, intesa come spazio intimo di riflessione e di autonomia. Si parla sempre più spesso di libertà cognitiva, una nozione che fino a pochi anni fa non compariva nei manuali di diritto. Con i modelli generativi si rischiava un sovraccarico di stimoli, che poteva disorientare ma lasciava comunque la responsabilità di filtrare all’individuo. Con gli agenti la dinamica è diversa: essi diventano compagni permanenti che filtrano, selezionano e organizzano l’esperienza al nostro posto. Se questa abitudine si radica, la capacità critica può affievolirsi. Non ci si ferma più a domandare, non si cerca il dubbio: si accetta ciò che il sistema propone, come se fosse l’unica strada possibile.
Di fronte a questa trasformazione il diritto europeo non può limitarsi ad aggiornare l’elenco degli obblighi tecnici. L’Ai Act ha fatto un passo importante con il modello di regolazione basato sui rischi, ma non basta. La pericolosità di un agente non dipende solo dal settore in cui opera, ma dalla sua stessa natura di delegato autonomo. Bisogna dunque pensare a garanzie nuove: ad esempio, la possibilità di interrompere in ogni momento l’azione dell’agente, la chiarezza su quando una decisione è stata presa da un software e non dall’individuo, la responsabilità giuridica chiara in caso di errori o danni.
Source link