IBM accelera sul quantum computing e sfida Google con architetture innovative per superare i limiti dei qubit
IBM rilancia la sfida nel settore del computing quantistico proponendo un approccio alternativo alla scalabilità, basato su nuove architetture di connessione tra qubit, che promettono maggiore affidabilità, meno errori e applicazioni concrete più vicine.
La competizione globale sul computing quantistico privo di errori entra in una fase decisiva grazie alla strategia perseguita da IBM, che propone una visione tecnologica distinta rispetto a quella adottata da altri grandi attori del settore come Google. L’azienda statunitense ha introdotto due nuovi sistemi quantistici, denominati Loon e Nighthawk, progettati per affrontare uno dei problemi strutturali più complessi della computazione quantistica, ovvero l’elevata instabilità dei qubit superconduttori e la loro naturale predisposizione all’errore.
In un contesto in cui molte roadmap industriali puntano a raggiungere l’utilità quantistica attraverso l’impiego di milioni di qubit fisici, IBM sembra orientata verso una soluzione più compatta, fondata su una connettività molto più elevata tra un numero ridotto di elementi computazionali. Secondo la visione dell’azienda, la qualità delle interazioni tra qubit può risultare più determinante della loro quantità assoluta, soprattutto quando si parla di realizzare qubit logici affidabili. L’architettura sperimentale di Loon introduce una configurazione in cui ogni qubit è interconnesso con sei altri qubit, superando i tradizionali limiti bidimensionali dei chip superconduttori e consentendo alle connessioni di estendersi anche lungo l’asse verticale, caratteristica spesso descritta come la capacità di superare il vincolo del piano, che potrebbe creare nuove possibilità per l’implementazione di schemi di correzione degli errori più efficienti, con riduzione di colli di bottiglia topologici che finora hanno rallentato la scalabilità dei sistemi quantistici.
Nighthawk, pur adottando una connettività leggermente inferiore con quattro collegamenti per qubit, è un banco di prova fondamentale per valutare l’impatto concreto di queste soluzioni su algoritmi reali. I primi test indicano che questo sistema è in grado di gestire programmi quantistici con un livello di complessità superiore di circa il trenta per cento rispetto alle precedenti generazioni sviluppate da IBM, risultato che suggerisce un miglioramento tangibile dell’efficienza computazionale. Il cuore della strategia IBM ruota attorno al concetto di qubit logico, ottenuto combinando più qubit fisici in modo da compensare gli errori e garantire calcoli più stabili. È stato evidenziato come l’approccio adottato richieda gruppi di qubit fisici più piccoli rispetto a quelli necessari in altre architetture concorrenti, con il potenziale vantaggio di ridurre la complessità ingegneristica ed i costi di produzione. Tuttavia, questa impostazione risulta sostenibile solo in presenza di una connettività molto elevata, condizione che Loon e Nighthawk mirano a soddisfare.
Dal mondo accademico è stato osservato che l’aumento delle interazioni tra qubit è considerato un progresso notevole verso dispositivi superconduttori realmente scalabili, pur senza costituire una soluzione definitiva a tutte le criticità legate all’espansione di questi sistemi.
L’interesse per le applicazioni pratiche del quantum computing sviluppato da IBM è già concreto in settori come la chimica computazionale, dove la simulazione accurata di complesse molecole trae vantaggio dalla capacità dei computer quantistici di gestire sovrapposizioni ed entanglement. L’incremento di potenza e complessità reso possibile da Nighthawk potrebbe estendere queste applicazioni a problemi di ottimizzazione avanzata, sicurezza crittografica e Intelligenza Artificiale, ambiti nei quali i computer classici mostrano limiti strutturali difficili da superare. Nonostante i risultati incoraggianti, restano però da risolvere numerose questioni di natura fisica ed ingegneristica.
È stato sottolineato come l’aumento delle connessioni tenda a ridurre il tempo di coerenza dei qubit, ovvero l’intervallo durante il quale essi mantengono uno stato quantistico utile, imponendo un delicato equilibrio tra stabilità e interconnettività. Parallelamente, sono stati compiuti progressi rilevanti nei sistemi di lettura dell’output, un aspetto spesso sottovalutato ma essenziale per garantire l’affidabilità complessiva dei calcoli. La roadmap di IBM prevede entro il 2026 l’introduzione di un computer quantistico modulare in grado di archiviare ed elaborare informazioni simultaneamente, integrando le conoscenze acquisite attraverso i prototipi Loon e Nighthawk. Sono inoltre in fase di sviluppo protocolli che consentano il reset selettivo di specifici qubit durante l’esecuzione dei calcoli, una funzione che potrebbe abilitare algoritmi iterativi più sofisticati. La competizione con strategie alternative, come quella di Google basata su un numero massiccio di qubit fisici, si deciderà sulla capacità di dimostrare quale approccio riuscirà per primo a raggiungere un livello di utilità quantistica con applicazioni economicamente e industrialmente rilevanti.





