Ambiente

l’80% dei manager riconosce mancanza di leadership e governance

Un vuoto di responsabilità che minaccia di rallentare lo sviluppo e la diffusione dell’intelligenza artificiale: se non è un allarme poco ci manca, perché supera l’80% la percentuale di manager che riconosce come leadership, governance e la preparazione degli addetti della propria organizzazione non riescano a tenere il passo dei progressi della tecnologia degli algoritmi, mettendo a rischio investimenti, sicurezza e fiducia degli utenti. Lo dice una recente ricerca (“AI Responsibility Gap: Why Leadership is the Missing Link”), condotta su scala internazionale lo scorso autunno da Jigsaw Research per conto di Ntt Data su un campione di 2.300 figure apicali con autorità o influenza diretta sulle decisioni di acquisto di soluzioni di AI generativa.

 

Il rapporto, si legge nella ricerca diffusa dalla multinazionale di consulenza giapponese, evidenzia l’urgente necessità di un chiaro mandato per allineare l’innovazione promessa dall’intelligenza artificiale alla responsabilità etica che ne dovrebbe segnare l’adozione, un allineamento che si riflette in una richiesta di una leadership più chiara e in grado di bilanciare adeguatamente queste due componenti. «L’entusiasmo per l’AI – ha sottolineato in proposito Abhijit Dubey, Ceo di Ntt Data – è innegabile ma i risultati della nostra ricerca dimostrano che l’innovazione senza responsabilità è un moltiplicatore di rischi. Le organizzazioni hanno bisogno di strategie di governance della tecnologia guidate dal top management per colmare questo divario, prima che il progresso si arresti e la fiducia si eroda».

Le indicazioni che emergono dallo studio, in effetti, confermano come questa “spaccatura” crei divisioni nei Consigli di amministrazione e all’interno della C-Suite: un terzo dei manager ritiene infatti che la responsabilità sia più importante dell’innovazione, mentre un altro terzo dà priorità all’innovazione rispetto alla sicurezza, con il restante terzo che invece valuta equamente le due componenti. Un altro fattore che rischia di inibire il processo di crescita è l’incertezza nei regolamenti. La stragrande maggioranza dei leader aziendali (oltre l’80%) afferma in proposito come la scarsa chiarezza delle normative sia da ostacolo agli investimenti e all’implementazione delle soluzioni di intelligenza artificiale, ritardandone l’adozione e l’applicazione. Ancora più evidente il timore dei C-level circa la discrepanza fra l’attuale livello di sicurezza dell’AI e le sue ambizioni: ben l’89% dei manager ammette di essere preoccupato per i rischi legati a questa mancanza e solo il 24% dei CISO (Chief Information Security Officer) ritiene che le proprie organizzazioni dispongano di un solido piano operativo per bilanciare tali rischi e la creazione di valore.

Un altro argomento “caldo” in fatto di governance dell’AI è l’impreparazione della forza lavoro. Il 67% dei manager oggetto di indagine afferma in tal senso come i propri dipendenti non abbiano le competenze per utilizzare efficacemente l’intelligenza artificiale, mentre il 72% ammette di non avere una politica sull’utilizzo responsabile della tecnologia. Non meno importante, infine, è anche la questione relativa alla reale sostenibilità dei modelli generativi. Il 75% del campione di manager intervistati, nello specifico, afferma che le opportunità promesse dall’intelligenza artificiale sono in conflitto con gli obiettivi di sostenibilità aziendale, costringendo le organizzazioni a riconsiderare le soluzioni di AI più energivore.


Source link

articoli Correlati

Back to top button
Translate »