Ambiente

Superare le barriere per adottare l’AI generativa nelle aziende italiane

Nel processo di adozione di soluzioni basate su AI Generativa, il vero elemento distintivo non è tanto il modello (o LLM), ma la capacità di un’organizzazione di utilizzarlo in produzione in modo sicuro e scalabile. Ruoli e metodi sono chiari: l’ingegneria della piattaforma AI definisce l’infrastruttura adatta a servire carichi di lavoro in maniera flessibile, standard aperti per fornire libertà di scelta e leadership capace di governare il processo di trasformazione. La maturità di qualsiasi percorso di adozione tecnologica si misura dal ROI, dal tempo di messa in produzione di soluzioni e dalla politica di sicurezza, non dalla pura quantità di esperimenti effettuati. Un approccio strutturato, che passa dal proof-of-concept alla produzione, deve favorire la collaborazione e aiutare a rompere i silos, integrando le attività più puramente IT con le attività di sviluppo. L’approccio strutturato colma anche il divario di competenze con expertise tecnica e più propriamente funzionale, rendendo produttiva tutta la filiera di competenza atta ad introdurre l’AI Generativa nei processi aziendali. In questo breve articolo, ci riferiremo alla AI Generativa come più semplicemente AI, tuttavia molte delle considerazioni si applicano anche ai concetti di AI Predittiva.

Dalla sperimentazione alla produzione: ROI, infrastruttura e scalabilità

Secondo una recente indagine Red Hat, i leader delle aziende italiane si aspettano giustamente un chiaro ritorno dall’investimento dall’adozione dell’AI e identificano la “Mancanza di un chiaro valore aziendale o ROI” (31%) e l’“Infrastruttura insufficiente” (31%) come le principali barriere incontrate.

Il ritorno sull’investimento è certamente una questione cruciale. Molte organizzazioni devono definire KPI specifici durante la fase sperimentale al fine di valutare se il caso d’uso in esame offra realmente tale ritorno.

Nel caso delle barriere infrastrutturali, un problema chiave è la disponibilità di risorse hardware specializzate e di calcolo (ad esempio, GPU) per l’implementazione dei progetti AI. Per dimostrare il ROI delle iniziative sperimentali selezionate, senza dover affrontare i costi ed i tempi di approvvigionamento di hardware dedicato, le organizzazioni cercano di superare questo ostacolo durante la fase sperimentale affidandosi a infrastrutture nel Public Cloud, che consentono un approvvigionamento veloce ed un ciclo di feedback rapido con costi iniziali moderati. Tuttavia, quando si passa alla fase di produzione ci sono considerazioni sulla riservatezza dei dati, la sicurezza, la scalabilità e la predicibilità dei costi, che tipicamente richiedono un ambiente on-premise o cloud privato.

Secondo Red Hat, un approccio open hybrid cloud integrando l’infrastruttura on-premise esistente con le risorse cloud pubbliche, risponde a tutte le considerazioni elencate in precedenza, allineandosi anche con le priorità a lungo termine delle aziende italiane come “Riallineamento della strategia cloud per l’AI” (56%) e “Ottimizzazione dei costi” (55%).


Source link

articoli Correlati

Back to top button
Translate »