Ambiente

DeepSeek è tra noi! Una buona notizia o l’inizio di Matrix?

Non capita spesso, anche nel nostro mondo super connesso, che una notizia si diffonda ovunque creando stupore ed interesse in un gran numero di persone. Il 27/1 è successo: un app di una sconosciuta azienda cinese, DeepSeek, era la più scaricata sui nostri iPhone.

familyandtrends ha scritto un libro (Strategie per l’intelligenza artificiale: Tutto quello che avreste voluto sapere sull’intelligenza artificiale ma non avete mai osato chiedere) per sostenere che l’intelligenza artificiale è una straordinaria innovazione tecnologica con rilevanti implicazioni per tutte le imprese, ma che non sfugge alle leggi del management.

La legge della conservazione dei profitti afferma che con l’innovazione tecnologica il valore non sparisce si sposta in altri punti della catena del valore. Samuel Brannan è sempre utile quando si tratta di approfondire la legge. Samuel fu uno degli imprenditori che più si arricchì nella corsa all’oro di fine ‘800. Trovò molto oro? No. Vendette pale e altri strumenti ai cercatori, sia a quelli che fecero fortuna sia a quelli che non la fecero. Chi fornisce GPU e data center, come Nvidia, AMD, Microsoft Azure, Amazon AWS sono i fornitori di pale; OpenAI, Anthropic e gli sviluppatori di modelli di intelligenza artificiale sono i cercatori d’oro, a seguire ci sono quelli che utilizzano l’AI, i.e. l’oro, per creare applicazioni per cui il consumatore finale è disponibile a pagare, e.g. gioielli.

Il 27/1 è giunta notizia nel mondo che DeepSeek pare abbia trovato molto oro e lo abbia trovato senza troppe pale e fatica. Proviamo ad approfondire i fatti.

Cosa ha fatto DeepSeek. DeepSeek ha innovato automatizzando il processo di apprendimento (training) e riducendo la necessità di feedback umano. Tradizionalmente, modelli come quelli di OpenAI utilizzano tecniche che prevedono supervisione e intervento umano per “affinare” l’intelligenza del modello. DeepSeek ha invece sostituito questi passaggi con un sistema automatizzato, in cui il modello si allena usando punteggi generati da se stesso. Questo ha abbattuto i costi di sviluppo, permettendo di rilasciare il modello R1 gratuitamente, e accelerato i tempi di “affinamento”. Accelerato di molto: V3, rilasciato da DeepSeek a dicembre era ridicolo, rispondeva mischiando lingue diverse e con parecchie “allucinazioni”; per arrivare all’R1 ci è voluto meno di un mese. DeepSeek ha, inoltre, migliorato l’efficienza dell’addestramento grazie a un algoritmo proprietario, il Group Relative Policy Optimization (GRPO), che permette all’intelligenza artificiale di assegnare da sola le probabilità nei nodi della rete; nei modelli attuali questo “lavoro probabilistico” viene fatto da una seconda intelligenza artificiale che usa capacità di calcolo e server aggiuntivi con grande aumento di costo. Infine, non avendo accesso alle ultime GPU per l’embargo americano, ha reso quelle più vecchie molto efficienti scrivendo software direttamente “all’interno dell’hardware”. Questo dimostra che la creatività umana si sprigiona quando ha dei vincoli alle risorse cui può accedere.


Source link

articoli Correlati

Back to top button
Translate »