Un computer quantistico è un tipo di computer che sfrutta i fenomeni della meccanica quantistica. A livelli molto piccoli, la materia fisica mostra proprietà sia di particelle che di onde, e il calcolo quantistico sfrutta questo comportamento mediante hardware specializzato. La fisica classica non è in grado di spiegare il funzionamento di questi dispositivi quantistici, ma un computer quantistico scalabile potrebbe eseguire alcuni calcoli in modo esponenzialmente più veloce rispetto a qualsiasi moderno computer classico di ultima generazione.

In particolare, un computer quantistico su larga scala potrebbe rompere gli schemi di crittografia ampiamente utilizzati e aiutare i fisici a eseguire simulazioni fisiche; tuttavia, lo stato attuale della tecnologia è ancora in gran parte sperimentale e impraticabile. In questo articolo vedremo tutto ciò che c’è da sapere sui computer quantistici.
Indice
La storia del computer quantistico
Per molti anni, i campi della meccanica quantistica e dell’informatica hanno formato comunità accademiche distinte. La moderna teoria quantistica si sviluppò negli anni ’20 per spiegare la dualità onda-particella osservata a livello atomico, mentre i computer digitali emersero nei decenni successivi per sostituire i computer umani in calcoli noiosi. Entrambe le discipline ebbero applicazioni pratiche durante la Seconda Guerra Mondiale; i computer svolsero un ruolo importante nella crittografia bellica, mentre la fisica quantistica fu essenziale per la fisica nucleare utilizzata nel Progetto Manhattan.
Il Progetto Manhattan è stato uno degli sforzi più importanti e controversi della storia della scienza. Il progetto ebbe inizio nel 1942, quando gli scienziati degli Stati Uniti, preoccupati che la Germania nazista stesse sviluppando armi atomiche, decisero di unirsi per costruire la bomba atomica. Il progetto coinvolse alcuni dei migliori scienziati del mondo, tra cui Albert Einstein e Robert Oppenheimer, e fu uno sforzo senza precedenti in termini di risorse e logistica.
Il progetto fu anche oggetto di dibattito etico, poiché l’uso della bomba atomica in Giappone nel 1945 causò la morte di centinaia di migliaia di persone e pose alla ribalta il tema dell’uso della scienza a fini militari. Il Progetto Manhattan rappresenta un importante esempio di come la scienza può essere utilizzata in modi positivi e negativi, e ha avuto un impatto duraturo sullo sviluppo della scienza e della tecnologia nel mondo intero.
Con l’applicazione dei modelli della meccanica quantistica ai problemi computazionali e la sostituzione dei bit digitali con i qubit, i campi della meccanica quantistica e dell’informatica hanno iniziato a convergere. Nel 1980, Paul Benioff introdusse la macchina di Turing quantistica, che utilizza la teoria quantistica per descrivere un computer semplificato.
Quando i computer digitali divennero più veloci, i fisici si trovarono ad affrontare un aumento esponenziale dell’overhead nella simulazione della dinamica quantistica, il che spinse Yuri Manin e Richard Feynman a suggerire in modo indipendente che l’hardware basato sui fenomeni quantistici potesse essere più efficiente per la simulazione al computer.
In un articolo del 1984, Charles Bennett e Gilles Brassard applicarono la teoria quantistica ai protocolli crittografici e dimostrarono che la distribuzione quantistica delle chiavi potesse migliorare la sicurezza delle informazioni.
Algoritmi quantistici
Gli algoritmi quantistici per la soluzione di problemi hanno visto la luce a partire dal 1985 con l’algoritmo di Deutsch, seguito dall’algoritmo di Bernstein-Vazirani nel 1993 e dall’algoritmo di Simon nel 1994. Questi algoritmi non risolvevano problemi pratici, ma dimostravano matematicamente che si poteva ottenere più informazioni interrogando una scatola nera in sovrapposizione, a volte indicata come parallelismo quantistico.
Peter Shor ha esteso questi risultati con i suoi algoritmi del 1994 per la rottura dei protocolli di crittografia RSA e Diffie-Hellman, ampiamente utilizzati, attirando notevole attenzione sulla ricerca in questo campo. Nel 1996, l’algoritmo di Grover ha stabilito un’accelerazione quantistica per il problema di ricerca non strutturato, ampiamente applicabile.
Lo stesso anno, Seth Lloyd ha dimostrato che i computer quantistici possono simulare sistemi quantistici senza l’overhead esponenziale presente nelle simulazioni classiche, confermando la congettura di Feynman del 1982.
Computer quantico
La unità di informazione fondamentale nell’informatica quantistica è il qubit, simile al bit nell’elettronica digitale tradizionale. A differenza di un bit classico, un qubit può esistere in una sovrapposizione dei suoi due stati “di base”, che in modo approssimativo significa che è entrambi gli stati contemporaneamente. Quando si misura un qubit, il risultato è un’uscita probabilistica di un bit classico. Se un computer quantistico manipola il qubit in un modo particolare, gli effetti di interferenza dell’onda possono amplificare i risultati delle misurazioni desiderate.
La progettazione degli algoritmi quantistici implica la creazione di procedure che consentano a un computer quantistico di eseguire calcoli in modo efficiente. L’ingegneria fisica di qubit di alta qualità si è dimostrata una sfida ardua. Se un qubit fisico non è sufficientemente isolato dal suo ambiente, soffre di decoerenza quantistica, introducendo rumore nei calcoli.
I governi nazionali hanno investito molto nella ricerca sperimentale che mira a sviluppare qubit scalabili con tempi di coerenza più lunghi e tassi di errore più bassi. Due delle tecnologie più promettenti sono i superconduttori (che isolano una corrente elettrica eliminando la resistenza elettrica) e le trappole di ioni (che confinano una singola particella atomica usando campi elettromagnetici).
Qualsiasi problema computazionale risolvibile da un computer classico può essere risolto anche da un computer quantistico. Al contrario, qualsiasi problema risolvibile da un computer quantistico può essere risolto anche da un computer classico, almeno in linea di principio, se viene dato abbastanza tempo. In altre parole, i computer quantistici rispettano la tesi di Church-Turing.
Ciò significa che, sebbene i computer quantistici non offrano vantaggi aggiuntivi rispetto ai computer classici in termini di computabilità, gli algoritmi quantistici per determinati problemi hanno complessità temporali significativamente inferiori rispetto agli algoritmi classici corrispondenti noti.
In particolare, si ritiene che i computer quantistici siano in grado di risolvere rapidamente alcuni problemi che nessun computer classico potrebbe risolvere in un tempo fattibile un risultato noto come “supremazia quantistica“. Lo studio della complessità computazionale dei problemi rispetto ai computer quantistici è noto come teoria della complessità quantistica.
Supremazia quantistica
La supremazia quantistica è un concetto fondamentale nella ricerca sui computer quantistici. Si riferisce alla capacità di un computer quantistico di risolvere un problema che nessun computer classico può risolvere in un tempo fattibile. Questo è stato dimostrato per la prima volta nel 2019 da Google in collaborazione con l’Università di Santa Barbara, quando il loro computer quantistico Sycamore ha risolto un problema in soli 200 secondi, che un supercomputer classico avrebbe impiegato circa 10.000 anni per risolvere.
Questa dimostrazione ha rappresentato un importante punto di svolta nella ricerca sui computer quantistici, poiché ha dimostrato che questi dispositivi sono in grado di superare in termini di potenza di calcolo i migliori computer classici. Ciò ha alimentato l’interesse e l’investimento in questa tecnologia, non solo da parte del settore della ricerca, ma anche del settore privato e dei governi.
La dimostrazione della supremazia quantistica non significa che i computer quantistici possano sostituire completamente i computer classici. In effetti, per molte applicazioni computazionali, i computer classici rimangono ancora la scelta migliore.
Nonostante queste limitazioni, la dimostrazione della supremazia quantistica ha aperto nuove possibilità per la ricerca e lo sviluppo di algoritmi quantistici per risolvere problemi in molteplici settori, dalla crittografia alla simulazione di processi chimici e fisici complessi.
La supremazia quantistica rappresenta quindi un importante traguardo nella storia dei computer quantistici e un punto di partenza per ulteriori sviluppi e scoperte in questo campo di ricerca in continua evoluzione.
Elaborazione dell’informazione quantistica
Gli specialisti dell’informatica si riferiscono comunemente all’operazione di un computer moderno attraverso il formalismo dell’elettrodinamica classica. All’interno di questi computer classici, alcune componenti (come i semiconduttori e i generatori di numeri casuali) possono fare affidamento sul comportamento quantistico, ma queste componenti non sono isolate dall’ambiente circostante, quindi qualsiasi informazione quantistica subisce rapidamente la decoerenza.
Mentre i programmatori possono fare affidamento sulla teoria della probabilità quando progettano un algoritmo randomizzato, le nozioni quantistiche come sovrapposizione e interferenza sono in gran parte irrilevanti per l’analisi del programma. I programmi quantistici, al contrario, si basano sulla precisa gestione di sistemi quantistici coerenti. I fisici descrivono questi sistemi matematicamente utilizzando l’algebra lineare.
L’ampiezza di probabilità viene modellata attraverso i numeri complessi, gli stati quantistici attraverso i vettori e le operazioni che possono essere eseguite su questi stati attraverso le matrici. La programmazione di un computer quantistico è quindi una questione di composizione di operazioni in modo tale che il programma risultante calcoli un risultato utile in teoria e sia realizzabile in pratica.
Il modello prevalente di calcolo quantistico descrive la computazione in termini di una rete di porte logiche quantistiche. Questo modello rappresenta una generalizzazione complessa dell’algebra booleana.
Parallelismo quantistico
Il parallelismo quantistico è uno dei concetti fondamentali della teoria dell’informazione quantistica e costituisce una delle caratteristiche più interessanti e promettenti dei computer quantistici. Mentre i computer classici eseguono le istruzioni sequenzialmente, eseguendo un’operazione alla volta, i computer quantistici possono utilizzare le proprietà della sovrapposizione quantistica per eseguire più operazioni contemporaneamente. Questo significa che, in un computer quantistico, è possibile elaborare una grande quantità di dati simultaneamente, con una velocità che cresce in modo esponenziale con il numero di qubit utilizzati.
Si basa sulla possibilità di eseguire operazioni su un insieme di stati quantistici contemporaneamente. Grazie alla sovrapposizione quantistica, un singolo qubit può rappresentare molteplici stati contemporaneamente, mentre un insieme di qubit può rappresentare un enorme numero di stati simultaneamente. Ciò consente ai computer quantistici di risolvere problemi molto più velocemente rispetto ai computer classici, in particolare problemi di ottimizzazione, ricerca e simulazione di sistemi quantistici.
Il parallelismo quantistico ha anche alcuni svantaggi. In primo luogo, il rumore e le interazioni con l’ambiente possono facilmente causare la decoerenza, che distrugge la sovrapposizione quantistica e quindi il parallelismo. Non tutti i problemi possono essere risolti con il parallelismo quantistico, e alcuni problemi possono addirittura richiedere una quantità esponenziale di qubit, rendendo l’esecuzione del programma quantistico impraticabile.
Algoritmi quantistici
La ricerca di algoritmi quantistici si concentra principalmente sul modello dei circuiti quantistici, anche se esistono alcune eccezioni come l’algoritmo adiabatico quantistico. Gli algoritmi quantistici possono essere suddivisi in categorie a seconda del tipo di accelerazione rispetto agli algoritmi classici corrispondenti. Gli algoritmi quantistici che offrono un’accelerazione superiore a quella polinomiale rispetto al miglior algoritmo classico conosciuto includono l’algoritmo di Shor per la fattorizzazione e gli algoritmi quantistici correlati per il calcolo dei logaritmi discreti, la soluzione dell’equazione di Pell e, in generale, la soluzione del problema del sottogruppo nascosto per gruppi abeliani finiti.
Questi algoritmi dipendono dal primitivo della trasformata di Fourier quantistica. Non è stata trovata alcuna prova matematica che dimostri che un algoritmo classico altrettanto veloce non possa essere scoperto, anche se ciò è considerato improbabile. Tuttavia, alcune problematiche dell’oracolo, come il problema di Simon e il problema di Bernstein-Vazirani, offrono accelerazioni provabili, anche se nel modello di interrogazione quantistica, che è un modello limitato in cui i limiti inferiori sono molto più facili da dimostrare e non si traducono necessariamente in accelerazioni per problemi pratici.
Altri problemi, tra cui la simulazione di processi fisici quantistici in chimica e fisica dello stato solido, l’approssimazione di alcuni polinomi di Jones e l’algoritmo quantistico per sistemi lineari di equazioni, hanno algoritmi quantistici che sembrano fornire velocità di elaborazione super-polynomiali ed essi sono BQP-completi. Poiché questi problemi sono BQP-completi, un algoritmo classico altrettanto veloce per essi implicherebbe che nessun algoritmo quantistico dà una velocità di elaborazione super-polynomiali, cosa che è ritenuta improbabile.
Alcuni algoritmi quantistici, come l’algoritmo di Grover e l’amplificazione dell’ampiezza, offrono un’accelerazione polinomiale rispetto agli algoritmi classici corrispondenti. Anche se questi algoritmi offrono un modesto vantaggio quadratico, sono ampiamente applicabili e quindi danno accelerazioni per una vasta gamma di problemi.
Molti esempi di accelerazione quantistica provabile per problemi di query sono correlati all’algoritmo di Grover, compreso l’algoritmo di Brassard, Høyer e Tapp per trovare collisioni in funzioni due-a-uno, che utilizza l’algoritmo di Grover, e l’algoritmo di Farhi, Goldstone e Gutmann per valutare gli alberi NAND, che è una variante del problema di ricerca.
Crittografia post-quantistica
Un’applicazione importante della computazione quantistica riguarda gli attacchi ai sistemi crittografici attualmente in uso. La fattorizzazione degli interi, che costituisce la base della sicurezza dei sistemi crittografici a chiave pubblica, è considerata computazionalmente impraticabile con un computer ordinario per grandi numeri interi se questi sono il prodotto di pochi numeri primi (ad esempio, il prodotto di due numeri primi di 300 cifre). Al contrario, un computer quantistico potrebbe risolvere efficientemente questo problema utilizzando l’algoritmo di Shor per trovare i suoi fattori.
Questa capacità consentirebbe a un computer quantistico di violare molti dei sistemi crittografici attualmente in uso, nel senso che esisterebbe un algoritmo di tempo polinomiale (nel numero di cifre dell’intero) per risolvere il problema. In particolare, la maggior parte delle cifrature a chiave pubblica più diffuse si basano sulla difficoltà di fattorizzare interi o sul problema del logaritmo discreto, entrambi risolvibili con l’algoritmo di Shor. In particolare, le cifrature RSA, Diffie-Hellman e Diffie-Hellman a curva ellittica potrebbero essere violate.
Queste cifrature vengono utilizzate per proteggere pagine Web sicure, email criptate e molti altri tipi di dati. La violazione di queste avrebbe conseguenze significative per la privacy e la sicurezza elettronica. L’identificazione di sistemi crittografici che possano essere sicuri contro gli algoritmi quantistici è un argomento attivamente ricercato nel campo della crittografia post-quantistica.
Algoritmi di crittografia a chiave pubblica
Alcuni algoritmi di crittografia a chiave pubblica si basano su problemi diversi dal fattorizzazione degli interi e dal problema del logaritmo discreto, ai quali si applica l’algoritmo di Shor, come il criptosistema di McEliece basato su un problema nella teoria della codifica. I criptosistemi basati sui reticoli non sono noti per essere vulnerabili ai computer quantistici e trovare un algoritmo in tempo polinomiale per risolvere il problema di sottogruppo nascosto di dihedrale, che comprometterebbe molti criptosistemi basati sui reticoli, è un problema aperto ben studiato.
È stato dimostrato che applicare l’algoritmo di Grover per rompere un algoritmo simmetrico (a chiave segreta) con forza bruta richiede un tempo pari a circa 2n/2 invocazioni dell’algoritmo crittografico sottostante, rispetto a circa 2n nel caso classico. Ciò significa che le lunghezze delle chiavi simmetriche sono efficacemente dimezzate: AES-256 avrebbe la stessa sicurezza contro un attacco che usa l’algoritmo di Grover che AES-128 ha contro la ricerca di forza bruta classica (vedi la dimensione della chiave).
Apprendimento automatico quantistico
La capacità dei computer quantistici di generare output che i computer classici non possono produrre in modo efficiente apre nuove possibilità nell’ambito dell’apprendimento automatico, grazie alla natura fondamentalmente lineare dell’algebra quantistica. Uno dei principali obiettivi di ricerca è lo sviluppo di algoritmi quantistici in grado di velocizzare i compiti di apprendimento automatico, come ad esempio l’algoritmo quantistico per sistemi lineari di equazioni, noto come “HHL Algorithm” in onore dei suoi scopritori Harrow, Hassidim e Lloyd.
Alcuni gruppi di ricerca stanno inoltre esplorando l’utilizzo di hardware di annealing quantistico per l’addestramento di macchine di Boltzmann e reti neurali profonde, aprendo nuove prospettive in questo campo di studio. I modelli di chimica generativa profonda emergono come strumenti potenti per accelerare la scoperta di nuovi farmaci. L’immensa dimensione e complessità dello spazio strutturale di tutte le possibili molecole simili a un farmaco presentano notevoli ostacoli, che potrebbero essere superati in futuro dai computer quantistici.
I computer quantistici sono naturalmente capaci di risolvere problemi quantistici di molti corpi complessi[74] e quindi potrebbero essere strumentali in applicazioni che coinvolgono la chimica quantistica. Pertanto, ci si aspetta che, in futuro, siano sviluppati modelli generativi potenziati da tecniche quantistiche, inclusi i quantum GANs, che potrebbero essere sviluppati in algoritmi di chimica generativa definitivi.
Computer quantistico Google
Il computer quantistico di Google è uno dei computer quantistici più potenti al mondo e rappresenta un importante passo avanti nella ricerca sulla computazione quantistica. Il computer, chiamato Sycamore, è composto da 54 qubit ed è stato progettato per eseguire algoritmi quantistici in modo più efficiente rispetto ai computer classici. Il costo di questo computer non è stato reso pubblico, ma si stima che sia di molti milioni di dollari. Il valore scientifico e tecnologico di un computer quantistico come Sycamore è inestimabile, poiché può essere utilizzato per risolvere problemi che sarebbero altrimenti impossibili da affrontare con i computer classici.
Il CEO di Google, Sundar Pichai, ha recentemente annunciato un importante progresso nella ricerca di computer quantistici. In particolare, l’azienda ha fatto significativi passi avanti nello sviluppo della correzione degli errori quantistici, una tecnologia cruciale per raggiungere la cosiddetta “supremazia quantistica”. Il team di ricerca di Google ha dedicato molti sforzi per sviluppare un sistema in grado di proteggere l’integrità dei calcoli quantistici, che sono particolarmente vulnerabili agli errori a causa della natura delicata dei qubit utilizzati.
Questo è un passo importante verso la realizzazione di un computer quantistico funzionale, che potrebbe rivoluzionare l’informatica e accelerare lo sviluppo di nuove tecnologie. Il funzionamento dei computer quantistici avviene attraverso la manipolazione degli qubit utilizzando algoritmi quantistici. I qubit sono particolarmente sensibili e anche la luce diffusa può causare errori di calcolo, il che diventa un problema sempre più critico man mano che si aumenta la dimensione dei computer quantistici.
Ciò costituisce un ostacolo significativo, in quanto i migliori algoritmi quantistici che conosciamo richiedono tassi di errore degli qubit molto inferiori rispetto a quelli che si riscontrano attualmente. Per superare questa difficoltà, è necessario sviluppare la correzione degli errori quantistici, come indicato dal CEO di Google, Sundar Pichai. I ricercatori stanno facendo progressi significativi nel campo dell’informatica quantistica, grazie a nuove tecniche che permettono di lavorare con gruppi di qubit come se fossero un singolo qubit logico, invece di manipolarli uno per uno.
Questo approccio ha permesso ai ricercatori di creare qubit logici costituiti da un maggior numero di qubit fisici, consentendo loro di superare le limitazioni dei singoli qubit fisici e aumentare le prestazioni del processore quantistico. Un esempio di questo è l’esperimento condotto dal team di Google, che ha creato un qubit logico costituito da 49 qubit fisici, che ha dimostrato di superare in prestazioni un qubit logico costituito da soli 17 qubit.
I risultati dello studio sono stati pubblicati sulla prestigiosa rivista scientifica Nature, rappresentando un importante passo avanti nella ricerca sull’informatica quantistica. Il successo raggiunto dai ricercatori nel creare un qubit logico che supera le prestazioni dei qubit fisici rappresenta una svolta significativa nello sviluppo del calcolo quantistico applicato.
Questo traguardo ha il potenziale di avere un impatto trasformativo su vari campi, tra cui la scienza dei materiali e la crittografia. Infatti, i computer quantistici sono in grado di risolvere problemi molto più complessi rispetto ai computer classici, aprendo la strada a una vasta gamma di applicazioni in cui il potere di elaborazione è fondamentale per la soluzione di problemi complessi.
Questa scoperta rappresenta, quindi, una pietra miliare nell’avanzamento del calcolo quantistico e apre nuove prospettive per il futuro sviluppo di questa tecnologia.
Computer quantistico e Intelligenza artificiale
L’intelligenza artificiale (IA) è un campo in cui i computer quantistici stanno attirando un’attenzione crescente. L’IA si basa sulla capacità di elaborazione dei dati e sull’efficienza dell’algoritmo. I computer quantistici offrono un vantaggio significativo rispetto ai computer classici in termini di potenza di elaborazione, il che li rende potenzialmente in grado di gestire problemi complessi in modo molto più efficiente.
Gli algoritmi di apprendimento automatico sono un’area specifica dell’IA in cui i computer quantistici potrebbero offrire un grande vantaggio. Gli algoritmi di apprendimento automatico sono utilizzati per l’analisi dei dati, la classificazione dei dati e la previsione. I computer quantistici potrebbero migliorare significativamente la precisione degli algoritmi di apprendimento automatico, ridurre i tempi di esecuzione e accelerare il processo di addestramento dei modelli.
Oltre all’analisi dei dati, i computer quantistici potrebbero anche migliorare l’IA nel campo della ricerca linguistica. L’elaborazione del linguaggio naturale richiede l’analisi di grandi quantità di dati, la comprensione della semantica e della sintassi, e la capacità di generare risposte a domande complesse. I computer quantistici potrebbero migliorare l’efficienza dei processi di elaborazione del linguaggio naturale e fornire un migliore supporto alla comprensione del testo e alla risposta alle domande.
L’intelligenza artificiale è un campo in cui i computer quantistici potrebbero offrire un vantaggio significativo. Il loro potenziale per migliorare l’efficienza e la precisione degli algoritmi di apprendimento automatico, nonché la loro capacità di accelerare l’elaborazione del linguaggio naturale, potrebbe avere un impatto significativo sulla ricerca scientifica, commerciale e industriale.
I progressi nella creazione di algoritmi e strumenti di programmazione per computer quantistici sono ancora in corso, e sono necessarie ulteriori ricerche per comprendere appieno il loro potenziale nell’IA.
Ricerche attuali e future sui computer quantistici
Le ricerche attuali e future sui computer quantistici si concentrano su diverse aree di interesse. Una di queste è la correzione degli errori quantistici, poiché i qubit dei computer quantistici sono così sensibili che anche la luce diffusa può causare errori di calcolo. Pertanto, sviluppare algoritmi che correggano questi errori è fondamentale per migliorare le prestazioni dei computer quantistici.
Altre aree di ricerca includono l’ottimizzazione degli algoritmi quantistici esistenti e la ricerca di nuovi algoritmi che sfruttino appieno la potenza dei computer quantistici. Inoltre, si sta cercando di aumentare il numero di qubit che possono essere utilizzati in un computer quantistico, poiché ciò aumenterebbe la sua capacità di risolvere problemi complessi.
La prima rete di computer quantistici in Europa sarà lanciata nel 2023 con i primi due computer collegati tra la Francia e la Germania, e si prevede di espandere il progetto nel 2024 con un maggior numero di computer, tra cui uno potrebbe essere operativo in Italia.
L’annuncio è stato fatto da Tommaso Calarco, uno dei principali esperti europei nelle tecnologie quantistiche, promotore del programma europeo sulle tecnologie quantistiche e direttore dell’Istituto tedesco per il controllo quantistico a Jülich, vicino Colonia.
Questo progetto rappresenta un’importante sfida tecnologica poiché richiede la creazione di una rete di computer quantistici interconnessi, consentendo ai ricercatori di collaborare e scambiarsi informazioni.