Dopo aver gettato le basi teoriche del calcolo quantistico la scorsa settimana, torniamo virtualmente nei laboratori dell'Università Federico II di Napoli. Ad accompagnarci ci sono ancora i nostri esperti: il professor Davide Massarotti e la dottoressa Ahmad Halima Giovanna. In questa seconda e ultima parte, ci addentreremo nei dettagli tecnici di questa infrastruttura avveniristica. Scopriremo che il futuro non prevede la sostituzione dei computer classici, ma la creazione di un ecosistema ibrido dove macchine tradizionali e quantistiche lavoreranno in perfetta sinergia. Analizzeremo inoltre le innovazioni puramente italiane, come il "ferro-trasmone", progettato per migliorare la scalabilità del sistema e ridurne gli errori. Infine, guarderemo al domani con una notizia entusiasmante: il polo universitario partenopeo si sta già espandendo per ospitare un nuovo processore da 64 Qbit. Buona lettura.
Marco Secco: Benvenuti a questa seconda puntata con i nostri esperti dell'Università Federico II di Napoli: il professor Davide Massarotti, docente di Fisica Sperimentale, e la dottoressa Ahmad, ricercatrice in Fisica della Materia. Benvenuti. Siamo abituati a vedere datacenter enormi per l’High Performance Computing. Il computer quantistico sostituirà queste infrastrutture o lavoreranno insieme per l'analisi dei dati?
Prof. Massarotti: L'idea attuale è creare una struttura ibrida in cui calcolo classico e quantistico cooperino per risolvere problemi complessi. I computer classici sono estremamente efficaci in determinati compiti. Ci sono però specifiche porzioni di codice (subroutines) in cui il computer classico fa fatica rispetto a uno quantistico. L'obiettivo è strutturare un ecosistema, sia hardware che software, dove alcune operazioni vengano eseguite dal supercalcolatore e altre dal computer quantistico. Al momento non si prevede un computer quantistico in grado di operare da solo, ma sempre in sinergia con i sistemi classici.
Marco Secco: Guardando le vostre pubblicazioni, ho notato studi sulle giunzioni Josephson e su una tecnologia specifica chiamata "ferro-trasmone", nata proprio all'Università di Napoli. Di cosa si tratta e che vantaggio offre l'inserimento di materiali ferromagnetici?
Prof. Massarotti: Il Qbit superconduttivo standard, utilizzato dai grandi centri di ricerca e dalle industrie come IBM e Google, si chiama "trasmone". Si tratta di un circuito composto da giunzioni Josephson, ovvero giunzioni tra materiali superconduttivi separate da una barriera isolante. La nostra idea è costruire un trasmone strutturalmente diverso inserendo un materiale ferromagnetico all'interno di questa giunzione. Questo ci fornisce un grado di libertà aggiuntivo, basato sulle proprietà ferromagnetiche (simili a quelle delle memorie a stato solido), permettendoci di controllare il Qbit in maniera impulsata. Questo porta due grandi vantaggi: riduce certe fonti di rumore abbassando il margine di errore del processore e migliora la scalabilità del sistema. Scalare da decine a migliaia di Qbit significa moltiplicare non solo i circuiti, ma anche i cablaggi nei frigoriferi criogenici. Controllare il Qbit in modo impulsato consente di spostare parte del controllo direttamente all'interno del frigorifero, facilitando la gestione di sistemi con un numero elevato di Qbit.
Marco Secco: Perfetto. Questo si ricollega all'importanza della mitigazione degli errori, un tema ricorrente nelle vostre ricerche. Potete spiegarci la differenza tra Qbit fisici e Qbit logici?
Dott.ssa Ahmad: La mitigazione degli errori è un processo (solitamente di post-processing) che tratta principalmente gli errori di lettura, ovvero l'errata discriminazione dello stato di un Qbit. Spesso sono causati da effetti classici come il rapporto segnale-rumore dei segnali di tensione. La mitigazione non corregge fisicamente l'errore, ma ne tiene traccia per visualizzare correttamente l'uscita dell'algoritmo. La correzione degli errori quantistici (Quantum Error Correction), invece, è un processo di natura puramente quantistica. Riguarda errori come il bit flip (quando il Qbit cambia stato spontaneamente) o l'errore di fase quantistica. Per correggere questi errori, l'informazione non viene codificata in un singolo Qbit fisico, ma in un aggregato di Qbit fisici chiamato "Qbit logico". Un Qbit logico contiene Qbit di dati e Qbit "ancilla", usati per rilevare ed eventualmente correggere l'errore. Il numero di Qbit fisici necessari per un logico dipende dal codice di correzione utilizzato. Aumentando il numero di Qbit fisici si ottiene una "fedeltà" (bontà dell'operazione) maggiore, muovendosi verso una computazione fault tolerant, in cui gli errori vengono tollerati e corretti senza inficiare il risultato.
Marco Secco: Quindi è come un'immagine: più pixel (Qbit fisici) ci sono, più è definita?
Dott.ssa Ahmad: Sì, più o meno il concetto è questo.
Marco Secco: Di quali infrastrutture disponete all'Università per portare avanti questa ricerca?
Prof. Massarotti: Lavorando con superconduttori, abbiamo bisogno di grandi e complessi frigoriferi commerciali chiamati "criostati a diluizione", che scendono a temperature vicine allo zero assoluto (un centesimo di grado Kelvin). Installando un processore quantistico, dobbiamo proteggerlo dal rumore ambientale e controllarlo tramite elettronica a microonde (i Qbit operano tra i 4 e gli 8 GHz). Più Qbit abbiamo, più complessa è l'elettronica necessaria. Attualmente il nostro gruppo è in forte espansione. Da due anni abbiamo un processore a 25 Qbit. Proprio in queste settimane stiamo ultimando il collaudo di un altro laboratorio e presto monteremo un processore da 64 Qbit. Avremo quindi due processori operativi in contemporanea, raddoppiando la nostra capacità di implementare algoritmi.
Marco Secco: Quindi l'Università Federico II non solo ha costruito il primo computer, ma ne sta affiancando un altro: un'ottima notizia per la ricerca italiana. Quali sfide vi attendono nel futuro?
Prof. Massarotti: Il nostro focus è l'hardware. Avendo una forte tradizione nella superconduttività, vogliamo ottimizzare la "singola cellula" del computer quantistico. Il trasmone non è l'unico design possibile; c'è ancora molto spazio per l'innovazione. In 20 anni, il tempo di "coerenza" (il lasso di tempo in cui il Qbit preserva l'informazione) è migliorato di sei ordini di grandezza, passando da nanosecondi a millisecondi, ma si può fare di meglio sviluppando giunzioni Josephson ideali. Vogliamo anche migliorare i dispositivi criogenici essenziali per il controllo e la lettura del sistema.
Marco Secco: La materia è ampia e richiede nuovi talenti. Che messaggio di incoraggiamento dareste ai giovani indecisi sul loro futuro professionale?
Prof. Massarotti: Stiamo vivendo per i computer quantistici l'equivalente degli anni '40 per i computer classici. Siamo nel pieno della seconda rivoluzione quantistica. È un ambito profondamente interdisciplinare che abbraccia fisica, ingegneria elettronica e informatica, chimica e biologia. Non è un settore già esplorato in cui ci si limita a ottimizzare il lavoro altrui; siamo agli albori e si sta costruendo il nostro futuro. C'è la possibilità per tantissime figure professionali di contribuire a vere e proprie scoperte di frontiera.
Marco Secco: Vi ringrazio per la chiarezza divulgativa su tematiche così complesse e per il lavoro che svolgete ogni giorno. Grazie per la disponibilità e a presto.