sfide etiche e di sicurezza per CEO e management
Facile a dirsi, un po’ meno a metterlo in pratica: parafrasando il noto proverbio, e calandolo nel sempre più ampio raccoglitore in cui convergono criticità e opportunità legate all’intelligenza artificiale, il compito che spetta ai Ceo e al management per integrare adeguatamente questa tecnologia in azienda è per l’appunto difficile. Pierluigi Casale, docente di OPIT (Open Institute of Technology, istituzione accademica nata due anni fa e specializzata nel campo della Computer Science) e consulente tecnico del Parlamento Europeo per l’implementazione e la regolamentazione dell’AI, è fra coloro che hanno contribuito alla definizione dell’AI Act, fornendo consulenza su aspetti di sicurezza e responsabilità civile. Il suo compito, insomma, è quello di garantire che l’adozione dell’intelligenza artificiale (in primis all’interno delle commissioni parlamentari che operano a Bruxelles) sia non solo efficiente, ma anche etica e conforme alle normative. E, ovviamente, il suo non è un compito facile.
L’esperienza maturata negli ultimi 15 anni nel campo del machine learning e il ruolo ricoperto in organizzazioni come Europol e in primarie aziende tecnologiche sono i requisiti che Casale mette in tavola per bilanciare l’esigenza degli organismi Ue con le pressioni esercitate dalle Big Tech americane e per preservare un approccio indipendente alla regolamentazione dell’intelligenza artificiale. Una tecnologia, bene ricordarlo, che implica conoscenze ampie e diversificate, che spaziano dallo spettro normativo/applicativo alle questioni geopolitiche, dalle limitazioni computazionali (comuni alle imprese e alle istituzioni pubbliche europee) alle sfide legate all’addestramento dei modelli di linguaggio di grande formato.
I Ceo e l’AI
A nostra precisa domanda sul come Ceo e C-suite stanno “digerendo” l’AI in termini di etica, sicurezza e responsabilità, Casale non si è sottratto, inquadrando il tema sulla base del proprio percorso professionale. «Ho rilevato in modo particolare due trend: il primo interessa le aziende che hanno iniziato a usare l’intelligenza artificiale prima dell’AI Act e che oggi hanno l’esigenza, nonché l’obbligo, di adattarsi al nuovo framework etico per essere conformi ed evitare sanzioni; il secondo riguarda invece le aziende, come quelle italiane, che solo ora si stanno affacciando a questa tematica, spesso in termini di progetti sperimentali e incompleti (l’espressione usata testualmente è “proof of concept”, ndr) e senza che questi abbiano prodotto valore. In questo caso, la componente etica e normativa si integra nel percorso di adozione».
In generale, secondo Casale, c’è ancora molto da fare anche sotto l’aspetto prettamente regolatorio, in ragione del fatto che fra i diversi Paesi non c’è totale coerenza di visione e non c’è la stessa velocità nel recepire le indicazioni. La Spagna, in proposito, fa scuola, avendo istituito (con decreto reale dell’8 novembre 2023) una “sandbox” dedicata, ossia uno spazio di sperimentazione normativa per l’intelligenza artificiale mediante la creazione di un ambiente controllato di test nella fase di sviluppo e pre-commercializzazione di alcuni sistemi di intelligenza artificiale, al fine di verificare la conformità ai requisiti e agli obblighi previsti dall’AI Act e di guidare le aziende a un percorso di adozione regolamentata della tecnologia.
«I Ceo che già lavorano con l’AI – spiega ancora l’esperto di OPIT – vedono l’investimento in materia di compliance come necessario, i secondi come un’opportunità: e proprio questi ultimi, sulla carta, hanno il vantaggio di poter definire una strategia anche in chiave etica e di responsabilità civile».
Source link