Quando si parla di computer quantistici, emerge quasi sempre la stessa tensione di fondo: puntare subito alla macchina perfetta oppure cercare valore il prima possibile con dispositivi imperfetti.
L’articolo More than one way to skin Schrödinger’s cat, apparso su IEEE Spectrum, mette bene a fuoco questo confronto, mostrando come oggi non esista una singola strada universalmente accettata verso il calcolo quantistico su larga scala.
Più che una disputa tecnica, è una differenza di mentalità: da un lato una visione fortemente ancorata alla fisica del dispositivo, dall’altro un approccio più computazionale, orientato a ciò che è già utilizzabile oggi.
La visione “a livelli”: ordinata, ma non condivisa da tutti
Microsoft propone una classificazione dello sviluppo dei computer quantistici in livelli ben definiti, con un obiettivo finale chiaro: una macchina universale, programmabile e completamente corretta dagli errori.
È una roadmap pulita, quasi rassicurante, che richiama il modo in cui siamo abituati a pensare all’evoluzione dell’informatica classica.
Il messaggio implicito è però piuttosto forte: finché non esiste una piena correzione degli errori, non si può parlare davvero di computer quantistici “utili”, ma solo di prototipi.
Ed è proprio qui che iniziano le divergenze.
IBM: meno categorie, più domande concrete
Jerry Chow di IBM contesta questo modo di inquadrare il problema. Secondo lui, una classificazione troppo rigida rischia di essere più legata alla fisica dei dispositivi che alla computazione vera e propria.
La domanda da porsi non è tanto “a che livello siamo?”, ma piuttosto:
cosa possiamo fare, oggi, con i circuiti quantistici che abbiamo a disposizione?
IBM non nega che una macchina completamente fault-tolerant sia il traguardo finale. Ma rifiuta l’idea che tutto ciò che viene prima sia solo una fase di attesa. L’approccio è pragmatico:
-cercare casi d’uso reali per dispositivi rumorosi ma controllabili
-usare tecniche di error suppression invece di una correzione totale
-accumulare esperienza pratica su algoritmi, software e integrazione con il calcolo classico
Non è una rinuncia all’ambizione, ma un percorso più graduale verso di essa.
Il vero costo degli errori
Questo punto si collega direttamente a quanto discusso nel precedente articolo sulla simulazione quantistica e sull’architettura Transversal STAR. Il problema centrale non è semplicemente il numero di qubit, ma quanto costa rendere affidabili le operazioni.
La correzione completa degli errori richiede:
-enormi overhead in termini di qubit fisici
-circuiti molto lunghi e fragili
-un controllo estremamente sofisticato
Se si decide che un computer quantistico diventa “serio” solo dopo aver risolto completamente questo problema, si accetta implicitamente che l’utilizzo pratico sia rimandato di molti anni.
Atomi neutri e scalabilità: perché attirano tanta attenzione
In questo contesto si inserisce l’interesse crescente per le piattaforme basate su atomi neutri, come quelle sviluppate da QuEra Computing e Atom Computing.
Il motivo non è che siano prive di problemi, ma che offrono un vantaggio chiave: la scalabilità fisica.
Justin Ging di Atom Computing lo riassume in modo molto diretto: se c’è una parola che descrive il principale beneficio degli atomi neutri, è proprio “scalabilità”.
In pratica:
-grandi array di atomi possono essere intrappolati nella stessa camera a vuoto
-la geometria del sistema è flessibile
-i vincoli di cablaggio sono molto più ridotti rispetto ad altre piattaforme
Sia QuEra sia Atom Computing parlano apertamente della possibilità di arrivare a 100.000 atomi in una singola macchina nei prossimi anni. Non siamo ancora al computer quantistico universale corretto dagli errori, ma siamo già in una regione interessante per molte applicazioni scientifiche.
Non una sola strada, ma molte
Il messaggio centrale dell’articolo di IEEE Spectrum è chiaro: non esiste un unico modo “giusto” di costruire un computer quantistico utile.
-Microsoft punta su una roadmap ben strutturata verso la perfezione
-IBM insiste sull’utilità progressiva delle macchine attuali
-QuEra e Atom Computing scommettono sulla scalabilità degli atomi neutri
Questi approcci non si escludono a vicenda. È molto più probabile che il settore evolva seguendo strade parallele, con risultati concreti che emergono prima in ambiti specializzati e solo più tardi in una forma davvero universale.
Un parallelo storico inevitabile
Chi guarda alla storia dell’informatica classica riconosce uno schema familiare. I primi computer:
-erano inaffidabili
-difficili da programmare
-utilizzabili solo da pochi esperti
Eppure sono stati usati comunque, perché permettevano di fare cose prima impossibili. La teoria completa e l’ingegneria raffinata sono arrivate dopo, guidate dall’esperienza pratica.
Pretendere oggi un computer quantistico perfetto prima di usarlo rischia di ripetere lo stesso errore.
Una riflessione personale
A mio parere, il valore di questo dibattito sta nella sua maturità. Si parla finalmente meno di slogan e più di compromessi reali. L’idea che il quantum computing debba dimostrare la propria utilità prima di diventare completamente fault-tolerant non è una scorciatoia, ma una necessità storica.
Gli atomi neutri, con tutti i loro limiti, sembrano offrire una delle strade più credibili per attraversare questa fase intermedia: non la destinazione finale, ma un ponte concreto tra il laboratorio e applicazioni scientifiche reali.
Se il computer quantistico manterrà almeno parte delle promesse che gli attribuiamo da decenni, probabilmente non lo farà seguendo una singola roadmap lineare. Più realisticamente, lo farà scuoiano il gatto di Schrödinger in più di un modo.