La superintelligenza ha bisogno di un limite
Oltre ottocento scienziati e personaggi pubblici hanno firmato una dichiarazione del Future of Life Institute chiedendo di sospendere lo sviluppo della superintelligenza artificiale (cosa significa? È semplicemente l’effetto di Sora 2 e di Sam Altman?), “finché non ci sarà consenso scientifico sul fatto che possa essere realizzata in modo controllato e sicuro e finché non ci sarà il sostegno pubblico”. Tra i firmatari figurano Steve Wozniak, Geoffrey Hinton, Steve Bannon, Susan Rice, Paolo Benanti, il principe Harry e Meghan Markle. Una lista talmente eterogenea da sembrare scritta da un algoritmo in crisi di identità.
Non hanno torto, già adesso non distinguiamo più sui social il vero dal falso, e la preoccupazione di Altman, fondatore di OpenAI, è quella che i governi debbano regolamentare l’intelligenza artificiale come si regolano il nucleare o l’aviazione, non per censurarla, piuttosto per evitare che l’anarchia tecnologica diventi la nuova normalità. E, attenzione, lo ha detto Sam Altman, il ceo di OpenAI, la più importante società di AI (Altman è colui che vi ha messo in mano ChatGPT, per capirci).
Se lo stesso Altman chiede di regolamentare il far west algoritmico e generativo che imperversa sui nostri social, forse sarebbe il momento che gli Usa e l’Ue ponessero dei limiti seri alla diffusione e utilizzo sconsiderato dell’AI da parte degli utenti comuni. Ma servirebbe? Ho i miei dubbi. Di fatto, nessuno può permettersi di farsi superare, e è per questo che Altman chiede ai governi di bloccare perfino se stesso.
Tuttavia c’è un piccolo enorme problema, e si chiama Cina, e nessun governo occidentale può fermarla, e è la ragione per cui temo che nessuna dichiarazione possa servire a arginare questa guerra informatica tra superpotenze che in questo non sanno (e forse non possono) essere superintelligenti.
Source link