di Margherita Chiara Immordino Tedesco
Possiamo serenamente dire che questa volta è davvero iniziata la corsa alla supremazione nel computer quantistico. Due le notizie rilevanti. La prima al Consumer Electronic Show di Las Vegas dove Ibm ha annunciato il primo computer quantistico, adatto all’uso commerciale, ma anche scientifico. Q System One potrà essere utilizzato da centri di ricerca e grandi compagnie o istituti di credito. Non si tratta di uno dei computer più potenti, ma mostra per la prima volta le applicazioni pratiche di questo tipo di calcolatori. La seconda è di un mese ma è forse ancora più rilevante perché riguarda la pubblicazione di due paper del team Google Quantum di Moutain View in cui vengono anunciati passi in avanti nella comprensione delle potenzialità dei computer quantistici nell’ambito dell’intelligenza artificiale. I due studi che trovate qui sul blog di Google chiariscono anche in che direzione i ricercatori di Moutain View stanno guardando. A luglio la stessa Google aveva annunciato Cirq, un software per aiutare gli sviluppatori a sperimentare forme di programmazione sulle macchine quantistiche, tra cui naturalmente il super-potente processore quantico di Google. Tecnicamente è un framework open source come quello che Tensor Flow sempre del colossi di Mountain View per l’intelligenza artificiale. Strategicamente arrivare prima nell’informatica quantistica significa mettere le mani su applicazioni in grado di abilitare nuovi mercati o occupare spazi all’interno di business tradizionali. Sulla palla c’è Google e Ibm, ma anche Intel e i big dell’industria tradizionale del silicio. Per capire di cosa stiamo parlando e cosa c’è in ballo, proviamo a spiegare bene cosa è un computer quantistico e perché se ne parla ormai da dieci anni.
Il nodo del software. Per sfruttare questa macchine serve un software e un linguaggio completamente diverso e ad oggi sono pochissimi gli sviluppatori che sanno dove mettere le mani. Siamo, va detto, in una fase precoce dello sviluppo dell’informatica quantistica ma proprio per questo è strategico mettere le mani avanti.
Chi lavora sull’hardware. Come abbiamo visto c’è Ibm, Google ma anche Intel e numerose startup che hanno prototipi e prodotti. IBM Q System One “viaggia” a 20 qubit. Google dichiara di arrivare a 75. Il cuore del problema però, come abbiamo vista, è garantire stabilità e replicabilità alle operazioni di calcolo.
Le piattaforme digitali. Se infatti nell’Ia c’è una supremazia delle grandi piattaforme digitali cino-californiane sul quantum computing la partita sembra più aperta. L’Europa, per esempio, l’Europa prevede in generale lo sviluppo di quantum computer ad alte prestazioni – nell’ordine dei 100 qubit – in un lasso di tempo tra cinque e dieci anni. E ha investisto qualcosa come un miliardo di euro.
PS: Relativamente al funzionamento di un computer quantistico, all’interno di questo pezzo era riportato l’esempio di una ricerca di un numero su un elenco telefonico. Più nel dettaglio, avevamo spiegato come un computer quantistico potesse cercare istantaneamente in tutta la rubrica, valutando ogni riga simultaneamente. A seguito della segnalazione di un lettore abbiamo constatato che l’esempio riportato non era corretto. E per tale ragione è stato
Quali sono le applicazioni?
Abbiamo già capito come il computer quantistico sia in grado o almeno prometta di processare – nello stesso momento, attraverso il calcolo parallelo – più soluzioni ad un singolo problema anziché svolgere calcoli sequenziali come avviene ora. Per alcune applicazioni il computer quantistico sarà esponenzialmente più veloce di quello a transistor come ad esempio la crittografia (cybersecurity), le previsioni metereologiche, la realizzazione di nuovi materiali. Le prime applicazioni però saranno proprio nella scoperta e nella realizzazione di nuovi materiali. Un esempio che si fa spesso è quello relativo agli sviluppi nell’ambito della cybersecurity. Anzi, della crittografia legata alle comunicazioni. Oggi attraverso le reti di fribra ottica inviamo miliardi di fotoni divisi in pacchetti. È piuttosto difficile accorgersi immediatamente se qualcuno ha copiato o intercettato queste comunicazioni. In un “mondo” regolato dalla crittografia quantistica un oggetto che associa a un bit di informazione un fotone rivela immediatamente se qualcosa è andato storto, se un bit di informazione è stato copiato o intercettato. In particolare la distribuzione quantistica di chiavi di crittografia (Quantum Key Distribution), utilizzando le proprietà della luce a livello quantistico, permette di rivelare in tempo reale la presenza di attacchi e violazioni del canale di comunicazione, garantendo quindi la sicurezza della trasmissione.
“La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni).” – Prima legge di Moore
Gordon Moore, uno dei fondatori di INTEL e pioniere della microelettronica nel 1965 enunciò due delle empiriche leggi che son state obbiettivo e parametro di misura nello sviluppo della microelettronica a partire dall’inizio degli anni Settanta.
Fino ad oggi, la miniaturizzazione dei circuiti è cresciuta parallelamente all’aumento della potenza di calcolo dei processori, fino a raggiungere i 7nm (nanometri) ed i 5nm nel processo produttivo (5nm node, annunciato recentemente da ‘TSMC’ Taiwan Semiconductor Manufacturing Co. e Samsung), mettendo in evidenza la difficoltà in cui incapperemo nel futuro, che ci vedrà costretti ad accantonare la profetica legge di Moore.
Ma c’è un nuovo paradigma che sfrutta le leggi della fisica e della meccanica quantistica, che punta al raggiungimento di una potenza di calcolo esponenzialmente più elevata senza necessariamente aver bisogno della miniaturizzazione dei circuiti. Il computer quantistico.
Ma cos’è esattamente?
Immaginate di voler cercare una particolare frase che vi ha colpito nel vostro libro preferito, ma non ricordate la pagina in cui si trovi. Un normale computer che usa il bit digitale con relativo codice binario, analizzerà pagina per pagina, riga per riga, fino ad arrivare alla determinata frase che cercavate; un computer quantistico, che usa il “qubit” sarà in grado invece di analizzare ogni pagina e ogni riga nello stesso momento, trovandola così molto più velocemente. Non una consequenzialità, ma una simultaneità di processi quindi, nei quali verranno analizzate le scelte possibili, le strade percorribili, per ottenere il risultato desiderato o la risoluzione di un problema.
Ma cos’è il qubit?
Il termine “quantum bit” (qubit) è stato coniato dal fisici teorici Benjamin Schumacher e William Wootters ed identifica un oggetto matematico con proprietà specifiche che rappresenta la più piccola porzione (quanto) in cui può venir scomposta l’informazione delle particelle elementari. Mentre il bit nel codice binario può essere 1 oppure 0, acceso o spento, il qubit può essere entrambi nello stesso momento; 2 qubit, quindi, possono avere 4 stati contemporaneamente, 4 qubit hanno 16 stati, 16 qubit hanno 256 stati e via dicendo.
L’identificazione del qubit è stata resa possibile grazie alle teorie, alle osservazioni, nonché alle sperimentazioni, ispirate dalla necessità di spiegare i comportamenti atomici e transatomici della materia e della radiazione elettromagnetica a livelli microscopici.
Nei primi dell’Ottocento il fisico Thomas Young, descrisse il fenomeno dell’interferenza della luce come caratteristico del movimento ondulatorio, desumendo che le particelle elementari nel loro layer fisico, fossero onde. Durante tutto il XIX secolo, grazie ai successivi sviluppi teorici di Maxwell si definì la luce come un onda elettromagnetica. Fu da quel momento, iniziò a sorgere un primo problema: seguendo la teoria elettromagnetica di Maxwell sulle cariche in moto accelerato, si giunse alla conclusione che l’atomo avrebbe dovuto collassare. Ma, come tutti sappiamo, la materia che tutti noi sperimentiamo nel nostro quotidiano, è decisamente stabile.
Nel 1902, il fisico tedesco Philipp Lenard dimostrò che l’energia dei fotoelettroni (elettroni liberi prodotti in sostanze investite da radiazioni elettromagnetiche) in quello che viene definito effetto fotoelettronico o fotoelettrico*, non dipendeva dall’intensità di illuminazione, ma dalla frequenza (o dalla lunghezza d’onda) della radiazione incidente; l’intensità della radiazione, invece, determinava l’intensità della corrente, cioè il numero di elettroni strappati alla superficie. Il risultato sperimentale non poteva essere spiegato pensando che il layer fisico della luce fosse ondulatoria.
Nello stesso periodo Max Planck, contrapponendosi alla teoria elettromagnetica classica, in quella che è nota come “legge di Planck”, che gli valse poi il premio Nobel nel 1918, espose una prima teoria quantistica affermando che gli atomi assorbono ed emettono radiazioni in modo discontinuo, per quanti di energia. Se pur inizialmente ciò venne considerato un escamotage matematico, dallo stesso Planck, divenne vera e propria teoria grazie ad Albert Einstein che, assumendo l’ipotesi di Planck e studiando il suddetto effetto fotoelettrico, presentò i risultati delle sue sperimentazioni dichiarando che tutte le radiazioni dovevano essere emesse o assorbite in pacchetti discreti o ‘quanti’ di energia, che noi oggi chiamiamo fotoni e descrisse il comportamento di questi pacchetti, come tipicamente associabile a quello delle particelle.
La luce quindi sembrava presentare una sorta di dualismo, apparendo come onda o particella a seconda dell’esperimento effettuato.
A quel punto, si manifestò nell’intera comunità scientifica la necessità di comprendere questa dualità e si insinuava l’ipotesi che questa natura duale fosse attribuibile a tutta la materia, finché il futuro premio Nobel Louis de Broglie, nel 1924 espose le sue innovative teorie sul dualismo onda-particella. Le teorie accolte con favore da Einstein vennero confermate poi dagli esperimenti effettuati sulla diffrazione degli elettroni di Davisson, Germer e Thomson.
Fu così che nacque la Fisica Quantistica, ovvero la scienza che studia la meccanica dei quanti, le particelle elementari che compongono il nostro Universo. La sua natura probabilistica nettamente in contrasto con il determinismo assoluto, assunto dogma nella fisica fino ad allora, fece storcere il naso successivamente a gran parte della comunità scientifica, Einstein compreso. In molti ricorderanno il suo famoso commento “Dio non gioca ai dadi”, riferito ad alcune teorie sulla meccanica quantistica che si andavano a sviluppare in quel periodo.
Molte furono le astrazioni necessarie alla formulazione di teorie che riuscissero a spiegare il comportamento dei quanti e molti furono i postulati formulati in meccanica quantistica: da quelli standard, attualmente insegnati nelle Università detti “interpretazione di Copenaghen”, a quelli formulati da Richard Freyman, come anche la “interpretazione di Bohm” o quella detta “WMI, interpretazione a molti mondi”.
Il quanto e nello specifico campo computazionale il quantum bit, non è osservabile nel suo stato fisico nel mondo macroscopico, essendo dotato di specifiche proprietà come la sovrapponibilità degli stati, l’interferenza, l’entanglement e l’indeterminazione. Nel 1982, Richard Feynman teorizzò la creazione di dispositivi di elaborazione progettati per fornire informazioni su problemi fisici specifici che riguardassero la meccanica quantistica, mentre Murray Gell-Mann ( premio Nobel 1969, per la sua teoria sulle particelle elementari, da lui chiamati Quark), sempre nei primi anni ‘80 intravide nel comportamento delle particelle elementari la possibilità di sviluppo di una nuova tipologia di scienza informatica.
Arrivando ai giorni nostri, possiamo affermare che nella realizzazione dei computer quantistici esistano due metodi predominanti: il primo metodo usa il raffreddamento dei nanocircuiti vicino al cosiddetto zero assoluto (-273,15° Celsius), in modo che funzionino come superconduttori senza resistenze che interferiscano sulla corrente; il secondo metodo ricorre agli “ioni intrappolati”, un atomo o molecola con una carica elettrica “intrappolati” appunto, in dei campi elettromagnetici e manipolati affinché lo spostamento degli elettroni produca un cambiamento di stato degli ioni, riuscendo funzionare come qubit.
Nel 2011 la D-ware, annunciò il primo computer quantistico a 128 qubit (16.384 stati quantistici) e nel 2013 il primo processore a 512 qubit. Oggi si vocifera che la società canadese, sia arrivata già a 5000 qubit, e oltre. Nel maggio 2013 Google e Nasa presentano il D-Wave Two, nel Quantum Artificial Intelligence Lab, in California; lo scorso anno, Google ha annunciato Bristlecone, l’ultimo processore quantistico che mira al raggiungimento della quantum supremacy, ovvero il raggiungimento di quello step in cui un computer quantistico sarà in grado di eseguire determinati algoritmi molto più velocemente rispetto a quanto un classico computer sia in grado di fare.
IBM attualmente ha una macchina da 50 qubit nei propri laboratori e ha realizzato inoltre una simulazione cloud-based di un computer quantistico, mettendola a disposizione degli sviluppatori e di chiunque voglia sperimentare questo nuovo paradigma computazionale chiamato Q System One. Il computer quantistico IBM, si trova all’interno di un case in vetro, con un sistema di raffreddamento che tiene costantemente la temperatura a -273,333° Celsius, in modo da preservare l’integrità e la qualità dei qubit usati per le operazioni quantistiche.
Insomma, una vera gara contro il tempo per aggiudicarsi il nuovo mercato.
La strada è ancora lunga, perché le difficoltà nella realizzazione di un primo vero computer quantistico in grado di soddisfare le tanto attese aspettative computazionali, presenta ancora dei limiti da superare, primo tra i quali è che i qubit superconduttori perdono le loro speciali proprietà entro 100 microsecondi circa, a causa vibrazioni ambientali, fluttuazioni di temperatura e onde elettromagnetiche. A questo segue un altro ostacolo da sorpassare perché tutti possano usufruire quotidianamente di questa nuova rivoluzionaria tecnologia, ovvero la corretta manipolazione delle particelle, senza che questa comporti la perdita di dati e informazioni utili al processo di calcolo anche in condizioni ottimali, nonché lo sviluppo di infrastrutture hardware idonee, visto che il corretto funzionamento dei qubit è garantito solo a temperature bassissime e in ultimo, non per importanza, l’elaborazione di algoritmi opportunamente sviluppati per il quantum computing. Le ricerche e le sperimentazioni quindi, sono attualmente in corso e sembrano procedere progressivamente seguendo una nuovissima legge enunciata da Hartmut Neven, direttore del laboratorio Quantum Artificial Intelligence, che vede il progresso dei computer quantistici rispetto a quelli classici con un rapporto “doppiamente esponenziale” e che profetizza l’avvenuto raggiungimento della quantum supremacy, entro la fine dell’anno(2019).
«sarebbe molto più economico costruire sistemi su larga scala a partire da funzioni minori, interconnesse separatamente. La disponibilità di varie applicazioni, unita al design e alle modalità di realizzazione, consentirebbe alle società di gestire la produzione più rapidamente e a costi minori» – Gordon Moore,1965
*effetto fotoelettronico o effetto fotoelettrico: emissione di particelle elettricamente cariche da parte di un corpo esposto a onde luminose o a radiazioni elettromagnetiche di varia frequenza: gli elettroni vengono emessi dalla superficie di un conduttore metallico (o da un gas) in seguito all’assorbimento dell’energia trasportata dalla luce incidente sulla superficie stessa. L’effetto è studiato già da metà ‘800 quando si cominciò a tentare di spiegare la “conduzione” nei liquidi e nei gas.