Prospettive future e direzione
Finora abbiamo appreso la motivazione per cui si utilizzano sia il calcolo ad alte prestazioni (HPC) che il calcolo quantistico per risolvere problemi scientifici. Abbiamo definito le risorse di calcolo classiche e quantistiche, tra cui CPU, GPU e QPU, e discusso come scalare e gestire queste risorse tramite tecniche come il ridimensionamento verticale e orizzontale, la schedulazione e la gestione dei carichi di lavoro. Abbiamo inoltre esplorato i modelli di programmazione per le QPU (come i circuiti quantistici e le primitive Sampler ed Estimator) e per i computer classici, incluse le pratiche di programmazione parallela con MPI, uno strumento potente per il calcolo eterogeneo quantistico-classico. Infine, abbiamo studiato e messo in pratica algoritmi quantistici avanzati basati sul campionamento, come Sample-based Quantum Diagonalization (SQD) e Sample-based Krylov Quantum Diagonalization (SKQD). Questi algoritmi sfruttano il metodo dei sottospazi per stimare con precisione l'energia dello stato fondamentale di molecole e materiali, preparando e campionando stati quantistici che definiscono un sottospazio per la diagonalizzazione classica — una combinazione di diversi modelli di programmazione su un insieme di risorse eterogenee. Con questi concetti fondamentali del supercalcolo quantistico e classico, non si parla più di uno che sostituisce l'altro, ma della creazione di un potente sistema integrato che lavora in sinergia — una combinazione destinata ad aprire l'era del vantaggio quantistico.
Perché ora?​
La comunità ha già superato il traguardo della "utilità quantistica" — dove i computer quantistici sono stati per la prima volta dimostrati come strumenti scientifici utili, capaci di eseguire calcoli al di là della simulazione classica a forza bruta. Quest'era dell'utilità è iniziata con il celebre articolo sull'utilità apparso in copertina su Nature nel 2023, e ha continuato con decine di pubblicazioni da parte di partner, clienti e ricercatori di IBM Quantum®. Ora l'attenzione si è spostata sul prossimo confine critico: raggiungere il vantaggio quantistico. Per molto tempo il termine "vantaggio quantistico" ha sofferto di definizioni imprecise. Questo articolo ha proposto una definizione concreta, che utilizzeremo qui. Nello specifico, il vantaggio quantistico indica l'esecuzione di un compito di elaborazione delle informazioni su hardware quantistico che soddisfa due criteri essenziali:
i) La correttezza dell'output può essere validata in modo rigoroso, e
ii) Viene eseguito con una separazione quantistica che offre dimostrabilmente un'efficienza, un rapporto costo-efficacia o una precisione superiori rispetto a quanto ottenibile con il solo calcolo classico.
Si prevede che il vantaggio quantistico comincerà a emergere entro la fine del 2026, e che ciò avverrà sfruttando congiuntamente le risorse quantistiche e HPC. Questa lezione delinea la visione centrale di questo nuovo paradigma, ne descrive le idee chiave e presenta una prospettiva futura fondata su un framework verificabile e indipendente dalla piattaforma per dimostrare e realizzare un vero vantaggio quantistico.
5.1 Il quadro generale​
Per la prima volta stiamo assistendo a una svolta significativa nella storia del calcolo — l'era del supercalcolo quantistico-centrico (QCSC), un paradigma emergente che integra strettamente le unità di elaborazione quantistica (QPU) con i supercomputer classici. La visione non è che i sistemi quantistici sostituiscano quelli classici, ma dimostrare che questa architettura eterogenea — dove "quantistico più classico" può superare il classico da solo — rappresenta il percorso più potente verso il futuro. In questo modello, le QPU sono concepite come co-processori specializzati, che lavorano affianco a CPU e GPU per affrontare problemi computazionali intrattabili per i computer classici.
Il pieno potenziale di questa nuova architettura può essere realizzato solo mettendo questi potenti strumenti nelle mani del maggior numero possibile di utenti. Questa visione sta già prendendo forma attraverso il deployment di sistemi quantistici in centri HPC consolidati e lo sviluppo di software, come i plugin Slurm quantistici, che semplifica la loro integrazione nei flussi di lavoro classici esistenti. Rendendo questi sistemi eterogenei più accessibili alla più ampia comunità di ricerca, si favorisce l'ambiente necessario per l'innovazione e la scoperta.
Questa strategia di combinare tecnologia integrata con una base di utenti ampia è come crediamo che la comunità raggiungerà il vantaggio quantistico nel prossimo futuro. Il vantaggio quantistico non è un singolo traguardo definitivo, ma un processo — una sequenza di dimostrazioni sempre più robuste che saranno esaminate, riprodotte e messe alla prova dalla comunità fino al raggiungimento di un consenso scientifico. Questo è il percorso per dimostrare, entro la fine del 2026, le prime istanze credibili e verificabili in cui questo nuovo modo di calcolare risolve problemi pratici in modo più efficiente, conveniente o accurato rispetto a quanto ottenibile con il solo calcolo classico.
Grandi idee​
Per realizzare questa visione, è necessario affrontare diverse domande e idee critiche.
-
Partizionamento ottimale del carico di lavoro: sul lato software, la sfida sta nella gestione di flussi di lavoro ibridi complessi. Orchestrare l'esecuzione senza interruzioni di compiti su risorse sia quantistiche che classiche richiede strumenti sofisticati. Ciò include Middleware e Infrastruttura Runtime Quantum-HPC progettati per gestire la schedulazione dei job, la gestione delle risorse e il flusso dei dati in questo ambiente eterogeneo. Inoltre, sviluppare tecniche per parallelizzare efficacemente i circuiti quantistici o suddividerli in parti più piccole e gestibili è fondamentale per massimizzare l'utilità dell'hardware quantistico attuale.
-
Tolleranza ai guasti a livello di sistema: la soluzione definitiva per proteggere le informazioni quantistiche dal rumore è il calcolo quantistico a tolleranza di guasti (FTQC), dove le informazioni sono codificate in "qubit logici" robusti. Sebbene i nuovi codici di correzione degli errori quantistici a bassa densità di parità (qLDPC) offrano un percorso per ridurre l'enorme overhead di risorse richiesto, l'implementazione della tolleranza di guasti completa non è prevista nell'immediato futuro. Allo stesso tempo, la mitigazione degli errori utilizza il post-processing classico per ridurre o eliminare il bias nei calcoli causato dal rumore, ed è anche un elemento critico per raggiungere sistemi quantistici a tolleranza di guasti a livello di sistema. Potenti metodi di mitigazione degli errori sono già in fase di deployment come servizio, dimostrando la potenza dell'architettura QCSC. Per esempio:
- Tensor Network Error Mitigation (TEM) di Algorithmiq gestisce il rumore nel post-processing software, sfruttando le risorse HPC classiche per estendere la portata delle QPU attuali.
- Quantum Error Suppression and Error Mitigation (QESEM) di Qedma combina la soppressione degli errori a livello hardware con la mitigazione per migliorare l'affidabilità dei calcoli quantistici su scala.
-
Democratizzare l'accesso: rendere questi potenti sistemi ibridi ampiamente accessibili è fondamentale per accelerare l'innovazione. Questo si sta già realizzando attraverso il deployment fisico di sistemi quantistici nei centri HPC e il rilascio di plugin Slurm per un'integrazione semplificata. Per razionalizzare questa integrazione, entrambe le aziende hanno rilasciato plugin Slurm, in modo che i carichi di lavoro quantistici possano essere gestiti con i normali schedulatori HPC. Inoltre, stack software completi come Qiskit forniscono un ambiente runtime cloud-based per l'esecuzione di circuiti quantistici a bassa latenza, orchestrando compiti ibridi complessi e fornendo strumenti per la compilazione, l'ottimizzazione e la mitigazione degli errori. L'hardware quantistico ad accesso aperto e i pacchetti di sviluppo open-source svolgeranno indubbiamente un ruolo critico.
Prospettive future di IBM​
La IBM Quantum Development Roadmap è una buona dimostrazione di questo quadro generale e di queste grandi idee.
La roadmap hardware di IBM Quantum è guidata da un focus sull'aumento della scala dei qubit e della connettività . La serie Nighthawk (2025-2028) utilizza una nuova architettura a reticolo quadrato per migliorare la connettività , mentre il processore Loon (2025) introduce i "c-couplers" per abilitare la connettività non locale tra qubit, fondamentale per il calcolo quantistico a tolleranza di guasti (FTQC). Questa roadmap culmina nei sistemi IBM Quantum Starling (2029) e Blue Jay (2033+), progettati per fornire calcolo su larga scala e a tolleranza di guasti con milioni di gate e migliaia di qubit logici.
La strategia software e middleware si basa su quattro obiettivi chiave: eseguire con precisione, orchestrare i carichi di lavoro, scoprire nuovi algoritmi e applicarli a casi d'uso specifici. La roadmap include miglioramenti continui come i circuiti dinamici su scala di utilità (2025) e nuovi strumenti di profilazione (2026) per garantire un'esecuzione efficiente. Per l'orchestrazione dei carichi di lavoro, la C-API (2025) e i futuri acceleratori di workflow (2027) integreranno il calcolo quantistico e classico ad alte prestazioni (HPC). Inoltre, IBM® introdurrà strumenti di mapping per l'utilità (2026) e nuove librerie di circuiti (2029) per facilitare la scoperta e l'applicazione di nuovi algoritmi.
Riepilogo​
Abbiamo esplorato il quadro generale e le grandi idee dietro l'obiettivo QCSC, e abbiamo esaminato la roadmap di IBM per lo sviluppo e l'innovazione nel calcolo quantistico. Questo percorso, come abbiamo visto, è una maratona, non uno sprint. Sebbene IBM sia impegnata a fornire computer quantistici sempre più potenti, il nostro progresso è solo una parte dell'equazione. È fondamentale che la comunità quantistica continui a sviluppare nuovi algoritmi, aprendo la strada alle applicazioni che porteranno davvero un calcolo quantistico utile nel mondo.
Per raggiungere questo obiettivo, dobbiamo lavorare insieme. Ciò significa stabilire problemi di benchmarking standardizzati con l'aiuto di esperti classici per garantire rilevanza e correttezza. Richiede inoltre la pubblicazione di metodologie e dataset dettagliati per consentire la riproducibilità , e il mantenimento di leaderboard ad accesso aperto per monitorare i nostri progressi collettivi.
Non è mai esistito un momento più entusiasmante per far parte di questa comunità . Adottando queste best practice e continuando la nostra esplorazione, possiamo lavorare insieme per realizzare il pieno potenziale del vantaggio quantistico.