Ascolta la versione audio di questo articolo (generata da IA).
A differenza dei normali computer, i supercomputer sono sistemi di elaborazione progettati per massimizzare la potenza di elaborazione e la conseguente velocità di trasmissione dei dati, superando di gran lunga le capacità dei computer tradizionali.
Genericamente costituiti da più processori o nodi che lavorano insieme in parallelo per risolvere problemi complessi, essi sono inoltre dotati di architetture specializzate e tecnologie di interconnessione che consentono una comunicazione efficiente tra i nodi, assicurando una collaborazione senza soluzione di continuità nell’ambito dei calcoli su larga scala. Mentre i computer classici sono progettati secondo l’architettura di von Neumann, architettura hardware per computer digitali dotati di CPU, memoria unificata, unità di I/O e che gestiscono l’interazione con l’utente tramite periferiche che comunicano bidirezionalmente con la CPU, i supercomputer invece analizzano spesso molti dati senza una vera interazione con l’utente, dato che usualmente devono eseguire un numero ridotto di operazioni su un elevato numero di dati. I supercomputer, quindi, utilizzano architetture alternative che sono in grado di assolvere a questi compiti con maggiore efficienza rispetto all’architettura di Von Neumann. In buona sostanza, un supercomputer è una killer application per ricerca e industria, in grado di svolgere miliardi di operazioni al secondo, se pensiamo, ad esempio, che un computer cosiddetto “exascale”, può eseguire almeno 10^18 calcoli (ovvero un trilione di calcoli) al secondo.
Quanto alle possibili applicazioni, esse sono innumerevoli, poiché sono ormai innumerevoli gli ambiti in cui è richiesta una notevole potenza di calcolo. Questi sistemi svolgono dunque un ruolo cruciale nella ricerca scientifica, consentendo simulazioni di fenomeni fisici, modellazione climatica e dinamica molecolare. E non va dimenticata la loro fondamentale rilevanza in settori quali l’ingegneria aerospaziale, l’esplorazione petrolifera, la modellazione finanziaria e la sanità per compiti quali la fluidodinamica computazionale, l’analisi sismica, la valutazione del rischio e la scoperta di farmaci. E ancora, i supercomputer vengono utilizzati nel campo della crittoanalisi e trovano altresì applicazione in numerose simulazioni fisiche quali le simulazioni di fluidodinamica o quelle di detonazioni nucleari. I militari e le agenzie governative di tutte le nazioni ne fanno un uso molto intenso, ma anche le aziende industriali ne stanno sperimentando l’utilità per i calcoli di previsione e di gestione di grandi volumi di dati che devono essere processati dall’APS (Advanced Planning System) del loro sistema gestionale ERP (Enterprise Resource Planning).
E tuttavia, la potenza di calcolo classica si trova ad affrontare diverse sfide, a partire dal rallentamento prestazionale causato dalla miniaturizzazione e dunque dalla limitazione della legge di Moore, fino al consumo per transistor che non diminuisce più con le dimensioni (quello che conosciamo come il punto di svolta della microelettronica con la fine della legge di Dennard). Da non dimenticare inoltre il blocco costituito dai requisiti energetici in crescita esponenziale dei sistemi tecnologici attuali. Donde gli importanti investimenti verso un approccio computazionale dirompente: il supercalcolo “quantum-centrico”.

Il quantismo, o più comunemente fisica o meccanica quantistica, è quella teoria fisica deputata alla descrizione del comportamento della materia, della radiazione e delle loro interazioni su scale atomiche e subatomiche, là dove le leggi della meccanica classica non hanno più valore. L’architettura del quantismo nei supercomputer è un nuovo modello ibrido definito Quantum-Centric SuperComputing che integra il calcolo quantistico nei supercomputer. Il modello è ibrido perché la meccanica quantistica non è destinata a sostituire la tradizionale tecnologia dei supercomputer (HPC, High Performance Computing), bensì ad arricchirla con processori quantistici (QPU, Quantum Processing Unit) che possano operare accanto a GPU (Graphics Processing Unit), CPU (Central Processing Unit) e Artificial Intelligence (AI), in sistemi on-premises, centri di ricerca e cloud. In sostanza il QCSC non è un computer quantistico più potente, è appunto un nuovo paradigma architetturale di tipologia ibrida, tale per cui ogni problema viene assegnato al processore più adatto, quantistico o classico che sia, e i due lavorano in loop coordinato. Le QPU potenziano le GPU e le CPU su specifici problemi assolutamente non trattabili in ambito puramente classico, dalla simulazione molecolare all’ottimizzazione combinatoria, solo per citare due esempi.
Insomma, si tratta di una sorta di blueprint aperto e scalabile che sembra incarnare la moderna versione del sogno del computer quantistico in grado di simulare la natura in modo efficiente, così come pensato nei primissimi anni ’80 da Richard Phillips Feynman, considerato appunto uno dei padri spirituali della computazione quantistica, laddove altri autorevoli fisici e scienziati portarono all’implementazione quelle stesse idee. Feynman, già Premio Nobel per la fisica per i fondamentali lavori nel campo dell’elettrodinamica quantistica (QED), intuì che, per modellare fenomeni fisici complessi a livello molecolare e atomico, era necessario un dispositivo operante secondo le leggi probabilistiche della meccanica quantistica. Gli elementi per studiare e simulare la natura a livello subatomico sono i qubit (quantum bit), ovvero le unità fondamentali di informazione nei computer quantistici, un’evoluzione dei classici bit. Tra le differenze principali quelle derivanti dal principio di sovrapposizione, per cui un qubit può rappresentare più stati contemporaneamente (0 e 1), permettendo di esplorare vasti spazi di calcolo in una volta sola, e quelle originate dall’entanglement, fenomeno che permette ai qubit di essere interconnessi in modo che lo stato di uno influenzi istantaneamente l’altro, replicando fedelmente le interazioni atomiche. Donde l’efficienza testé menzionata: un computer quantistico può simulare la dinamica di una molecola complessa usando un numero di risorse proporzionale alla molecola stessa e ovviando ai limiti fisici della crescita esponenziale. Semplicemente meraviglioso. Quindi il QCSC, prima ancora di trasformarsi in un’area di studio, è fondamentalmente un’idea, il QCSC è una delle tante idee partorite in seno alla fisica teorica.
Nell’ambito delle organizzazioni attive in questo tipo di studi si segnala in particolare l’EuroHPC JU (European High Performance Computing Joint Undertaking), un’entità giuridica e finanziaria con sede in Lussemburgo. Si tratta di un’impresa nata nell’ambito della Comunità Europea nel 2018 e che unisce risorse dell’UE, stati membri e partner privati per sviluppare un ecosistema europeo di livello mondiale nell’ambito del supercalcolo, ovvero della computazione classica potenziata per elaborare enormi moli di dati a velocità estreme. La stessa organizzazione finanzia infatti lo sviluppo e l’acquisizione di supercomputer exascale di alta gamma. L’obiettivo è quello di garantire la sovranità tecnologica europea, sostenendo la ricerca scientifica e l’innovazione industriale. L’interesse dell’HPC tuttavia non si limita solamente al supercalcolo, ma abbraccia tutto il sistema delle infrastrutture per la ricerca, e guarda con attenzione all’utilizzo delle Quantum Technologies (QT). L’iniziativa mira, dunque, a fornire agli utenti europei anche l’accesso a diverse tecnologie quantistiche (trappole ioniche, superconduttori, atomi neutri) per accelerare la ricerca scientifica e industriale.
Non è un caso se il CSIS (Center for Strategic and International Studies), un autorevole think tank americano, certifichi nel marzo 2026 una classifica controintuitiva tra i Paesi più avanzati nello sviluppo di questa rivoluzionaria tecnologia.
Secondo il CSIS l’Europa risulta essere la più avanzata nell’integrazione sistematica, con ben otto Paesi EuroHPC JU (Repubblica Ceca, Francia, Italia, Polonia, Germania, Spagna, Paese Bassi e Lussemburgo), ove sono presenti altrettanti centri di supercalcolo e dove si sta lavorando all’installazione di computer quantistici per procedere poi alla fase di integrazione con le infrastrutture di supercalcolo classiche. In Giappone invece esiste una piattaforma nazionale distribuita operativa, RIKEN/Fugaku, la quale piattaforma risulta essere l’implementazione più avanzata al mondo nell’ambito dell’integrazione del calcolo quantistico e del supercalcolo, ed è in costruzione una rete che collega Fugaku, Università di Tokyo e Osaka con QPU multipli. Gli USA d’altro canto sono leader nel quantum hardware (IBM) e nel supercomputing classico, ma sono paradossalmente in ritardo nell’integrazione ibrida. Vero è che gli Stati Uniti si collocano al top della potenza di calcolo classica, con capacità di supercalcolo exascale installate su macchine come Frontier all’Oak Ridge National Laboratory, Aurora all’Argonne National Laboratory ed El Capitan al Lawrence Livermore National Laboratory, utilizzato quest’ultimo principalmente per simulazioni di sicurezza nucleare. Per quanto ci è dato sapere, anche la Cina è attiva nel quantum domestico, ma non vi è notizia di alcuna implementazione QCSC, il che tuttavia non significa molto in quanto sono note le rigide politiche di riservatezza, soprattutto in materia di sviluppo scientifico e tecnologico, osservate dal gigante asiatico.
Traggo la mia conclusione dalla sezione “scienza e tecnologia” del quotidiano “Insalutenews.it”, che in un recente articolo parla estensivamente di un supercomputer presente nel nostro Paese, un calcolatore che si classifica tra i più veloci e potenti al mondo. Mi riferisco al supercomputer “Leonardo”, di classe pre-exascale, calcolatore che fa parte della rete EuroHPC e che è gestito dal consorzio CINECA. Leonardo è stato installato nel 2022 in un datacenter interno al Tecnopolo di Bologna ed è in grado di svolgere più di 250 milioni di miliardi di operazioni al secondo. Si tratta quindi di un’infrastruttura chiave per la ricerca europea, una macchina che fornisce un contributo di grande rilievo allo sviluppo tecnologico e scientifico in diversi settori. Ebbene, è di qualche settimana fa la notizia che un computer quantistico a 140 qubit, basato su atomi neutri e sviluppato da Pasqal, azienda francese leader nella costruzione di apparati a computazione quantistica, è stato consegnato proprio al Tecnopolo di Bologna presso la sede del CINECA. Il nuovo computer è cofinanziato da EuroHPC JU e dal MUR, Ministero dell’Università e della Ricerca, tramite l’ICSC (Centro Nazionale di Ricerca in HPC, Big Data and Quantum Computing). Tale investimento si inserisce nel più ampio progetto del Ministero di rendere il nostro Paese un punto di riferimento strategico nell’innovazione, leader nel mondo dell’Intelligenza Artificiale e nel supercalcolo. Il computer quantistico in questione è progettato per una stretta integrazione con il supercomputer Leonardo, generando un’architettura ibrida dove saranno delegati alla QPU carichi di lavoro specializzati come la risoluzione di problemi complessi di ottimizzazione, simulazioni avanzate di materiali e applicazioni di machine learning, mentre verrà affidata al supercomputer Leonardo l’elaborazione classica di ingenti volumi di dati. La notizia è stata ribattuta anche dall’ANSA e dal sito dell’ICSC stesso.

Un mondo di frontiera quello del Quantum-Centric Supercomputing, un mondo in divenire. Un mondo dove, con le parole di Richard Feynman “la natura non è classica, e se vuoi fare una simulazione della natura, faresti meglio a farla meccanico-quantistica, e perbacco, è un problema meraviglioso perché non sembra facile”.
E ancora, “se pensate di aver capito la meccanica quantistica, non avete capito la meccanica quantistica”, a sottolineare che il quantismo sfida l’intuizione comune, la logica tradizionale, il principio di causalità. Vero è che introduce concetti come la quantizzazione dell’energia, il dualismo onda-particella, il principio di inderterminazione, permettendoci di dare una spiegazione agli orbitali elettronici, alla stabilità degli atomi e a molto altro ancora, ma non può essere compreso tramite analogie con l’esperienza quotidiana o con il “buon senso” classico. E così è anche nelle sue applicazioni più avanzate come i supercalcolatori quantum-centrici.
Un motivo in più per esserne attratti e per avere successo implementandoli!
MSC in Nuclear Engineering – Politecnico di Milano
Senior Strategic Advisor, Global Executive