Home » the challenge for the development of Quantum Computing

the challenge for the development of Quantum Computing

by admin
the challenge for the development of Quantum Computing

A problem known for years, Quantum Noise is a disturbance capable of affecting, even in a very significant way, the results generated by a system. But overcoming quantum decoherence is the conditio sine qua it is neither conceivable nor possible to bring quantum computation towards new levels of diffusion and use.

Considered one of the technologies destined to generate the greatest impact in industries such as pharma, chemistry, automotive and finance, Quantum Computing still suffers from maturity problems.

It is not just a matter of having a clear vision of when quantum computers will actually be available on a full scale, but of overcoming some of the technical problems that still “afflict” this technology. One in particular: the noise.

In the context of quantum computing, noise, the Quantum Noiseis one of the factors capable of influencing – and in some cases invalidating – the accuracy of the calculations.

Quantum Noise is a disturbance that can alter the results of a quantum system, caused by various factors such as magnetic fields, interference from electronic devices and interactions between qubits. Overcoming this obstacle, known as quantum decoherence, is critical to advancing the field of quantum computing and achieving higher levels of reliability and precision. Techniques such as error suppression, error mitigation, and Quantum Error Correction (QEC) have been developed to reduce the effect of noise on qubits and improve the accuracy of calculations. These developments are crucial to achieving quantum advantage, the ability of quantum computers to solve problems faster than classical computers.

What is Quantum Noise

In the context of Quantum Computing, noise should be understood as a disturbance, generated by magnetic fieldsgive her WiFi interference o mobile phones and even frominfluence that qubits (i quantum bitsi.e. the unit of quantum information) exert on each other by proximity.

A significant disturbance, given that it is capable of causing the inactive qubits to lose information, of causing the active ones to rotate incorrectly and in any case of bringing the system to a state different from the expected one.

The theme is well known, enough to be defined as decoherence o quantum decoherence and have long been the subject of studies and experiments. Already in 2017, in fact, the American physicist John Preskill coined the definition of Noisy Intermediate Scale Quantum (NISQ) to indicate how quantum computers of the time (and indeed those of today) were subject to errors generated by disturbances related to their environments [qui è possibile rivedere il suo keynote : 

Le cause del rumore e della decoerenza quantistica

Una classificazione abbastanza frequente dei disturbi definisce quattro possibili cause della decoerenza quantistica:

in primis l’ambiente. Variazioni di temperatura, campi elettrici o magnetici possono causare la degradazione delle informazioni quantistiche nel computer. Anche una debole radiazione spaziale galattica può spingere i qubit e quindi degradarli

in secondo luogo i crosstalk, le diafonie, le interferenze. Bisogna tener presente che i computer quantistici sono alimentati da qubit che agiscono insieme, manipolati da laser o microonde. A volte il segnale laser o a microonde può avere un impatto sui qubit vicini e sul qubit bersaglio. In questo caso si parla di crosstalk o diafonia.

deterioramento dello stato. Bisogna anche in questo caso tenere presente che lo stato quantico di un qubit si deteriora rapidamente anche dopo poche frazioni di secondo ed è dunque necessario che gli algoritmi si completino prima che gli stati quantici collassino

errori di implementazione. Gli algoritmi applicano diverse rotazioni al qubit, implementate da impulsi laser o a microonde. Un’imprecisione nell’implementazione porta a conseguenti errori nei calcoli successivi

La decoerenza inficia precisione e affidabilità

La decoerenza è dunque un problema non da poco, che rende di fatto i computer quantistici meno idonei alla risoluzione dei problemi rispetto ai sistemi computazionali classici.

Secondo alcuni studi, nonostante il continuo lavoro per migliorare l’affidabilità dei qubit, al momento si parla di una precisione superiore al 99,9%: un valore sicuramente elevato, ma non sufficiente per consentire ai computer quantistici di eseguire gli algoritmi complessi necessari a superare i computer classici esistenti.

See also  Tim Sweeney revolutionized computer games, now he is fighting against Apple and Google

Nel gennaio del 2020, un team internazionale di ricercatori, guidato dal professor Andrea Morello dell’UNSW di Sidney ha annunciato di aver raggiunto un tasso di precisione del 99% con qubit a spin nucleare incorporati nel silicio.

Il lavoro, pubblicato su Nature lo stesso mese di gennaio (“Precision tomography of a three-qubit donor quantum processor in silicon”), evidenzia una accuratezza del 99,95% per i calcoli a 1-qubit, mentre nei calcoli a 2-qubit si è raggiunta una accuratezza del 99,37%.

Trovare e correggere gli errori quantistici è la sfida nel percorso verso il vantaggio quantistico, termine che indica il momento in cui i computer quantistici risolveranno i problemi del mondo reale più velocemente dei computer classici. E lo stesso Andrea Morello spiega che:

«In genere è necessario avere tassi di errore inferiori all’1% per poter applicare i protocolli di correzione degli errori quantistici. Avendo ora raggiunto questo obiettivo, possiamo iniziare a progettare processori quantistici al silicio che scalano e funzionano in modo affidabile per calcoli utili»

Ricordiamo che gli algoritmi classici o non quantistici sono costituiti da una sequenza finita di istruzioni, eseguibili su un computer “tradizionale”. Analogamente, gli algoritmi quantistici sono costituiti da una sequenza di istruzioni e utilizzano alcune caratteristiche essenziali della computazione quantistica, come la sovrapposizione quantistica o l’entanglement quantistico.

Gli algoritmi quantistici sono più veloci ed efficienti dei loro omologhi nella computazione classica: ad esempio, per l’algoritmo di Shor per la fattorizzazione si parla di una velocità esponenzialmente più elevata rispetto all’algoritmo classico, mentre l’algoritmo di Grover (solo per citare due dei più noti), utilizzato per la ricerca in un database non strutturato o in un elenco non ordinato, è quadraticamente più veloce rispetto a un algoritmo classico cui è demandato lo stesso compito.

Per superare il problema della decoerenza quantistica, è dunque necessario essere in grado di eseguire la correzione degli errori. Questo significa analizzare il sistema per determinare quali disturbi si sono verificati e poi invertirli.

Perché è importante correggere la decoerenza quantistica

In assenza di una efficace correzione degli errori, con l’aumentare delle dimensioni e della complessità di un sistema, i calcoli quantistici diventano inaffidabili.

Già nel 2019, Joschka Roffe, ricercatore del Dipartimento di Fisica e Astronomia dell’Università di Sheffield, così scriveva in un paper intitolato “Quantum Error Correction: An Introductory Guide”:

«I protocolli di correzione degli errori quantistici avranno un ruolo centrale nella realizzazione dell’informatica quantistica; la scelta del codice di correzione degli errori influenzerà l’intero stack dell’informatica quantistica, dalla disposizione dei qubit a livello fisico alle strategie di compilazione dei gate a livello software. Pertanto, la familiarità con la codifica quantistica è un prerequisito essenziale per la comprensione delle architetture di calcolo quantistico attuali e future»

Attualmente, alcuni gruppi di lavoro nel mondo accademico e industriale hanno sviluppato algoritmi che sembrano dare risultati positivi su computer limitati in dimensioni e coerenza.

Gli algoritmi sono valutati in presenza di rumore per capire quanto possano funzionare a breve termine in scenari realistici. La simulazione del rumore fornisce un approccio sistematico alla valutazione degli algoritmi rumorosi, consentendo di scegliere tra diversi tipi di rumore con intensità regolabile.

L’idea alla base di questi lavori è che con il progredire dello sviluppo di hardware quantistico, si possa capire quale sia l’influenza del rumore, modellando gli errori e dunque progredendo nella loro ricerca sulla correzione degli errori quantistici.

Cosa si profila all’orizzonte e che ruolo ha giocato il cloud

La situazione sembra comunque essere tutt’altro che allo stallo. Negli ultimi due anni, infatti, i progressi teorici e sperimentali sembrano andare nella giusta direzione: la combinazione di strategie hardware e software si sta rivelando promettente per sopprimere, attenuare e ripulire gli errori quantistici. E prima di quanto ci si potesse aspettare.

Di questo, parte del merito spetta anche al cloud. Quando, nel 2016 (in una data non casuale, il 4 maggio), IBM riuscì a garantire a fisici e ricercatori in tutto il mondo la possibilità di utilizzare i propri qubit, realizzando ilprimo computer quantistico con accesso al cloud, il problema è apparso in tutta la sua evidenza.

Settemila utenti registrati nella prima settimana, 22.000 nel primo mese: un numero sufficiente per rendere evidenti non solo l’interesse sul Quantum Computing, ma anche i suoi limiti.

See also  Austria advertising and startup nista.io help tourism to save energy

Il punto di partenza era un sistema a 5 qubit, diventati poi 12, con un obiettivo ideale di arrivare a centinaia di migliaia di qubit in grado di lavorare insieme. Ed è parso subito chiaro quanto il rumore rappresentasse “IL” problema.

Certo, un po’ di rumore era comunque previsto: radiazioni termiche, variazioni di temperatura, l’applicazione di impulsi di energia per portare i qubit negli stati giusti erano tutte cause di rumore. Ma proprio la numerosità delle prove rese possibili dal cloud ha consentito ai ricercatori di imparare molto più velocemente di quanto non fosse possibile in precedenza.

Come tenere sotto controllo il Quantum Noise

Al momento, fisici e ricercatori stanno lavorando a una serie di soluzioni che possono aiutare a tenere sotto controllo il rumore, superando dunque i limiti della decoerenza quantistica:

si parte con la soppressione degli errori. È probabilmente l’approccio basilare e si basa sull’analisi del comportamento dei qubit e dei circuiti. In questo caso, la ricerca prevede un lavoro di riprogettazione dei circuiti e di riconfigurazione delle modalità con le quali vengono impartite le istruzioni, così da poter proteggere meglio le informazioni contenute nei qubit, aumentando di conseguenza le possibilità che gli algoritmi quantistici siano in grado di produrre una risposta corretta

un secondo livello di intervento punta invece alla mitigazione degli errori. L’assunto di partenza è che non sempre il rumore causa il fallimento completo della computazione: in molti casi si parla di “semplici” alterazioni che possono essere corrette. In questo caso, l’obiettivo è introdurre correttivi che possano ridurre il rumore e di conseguenza gli errori di computazione. L’analogia con gli strumenti di soppressione del rumore nel mondo audio non è casuale

il terzo livello di intervento è quello che viene definito Quantum Error CorrectionQEC, la correzione quantistica degli errori. È un approccio interessante: invece di conservare le informazioni di un qubit in un solo qubit, la QEC le codifica negli stati quantistici di un insieme di qubit. Un approccio che porterebbe a ridurre significativamente l’effetto dell’errore indotto al rumore. Infatti, monitorando ciascuno dei qubit aggiuntivi, è possibile rilevare qualsiasi cambiamento e correggerlo prima che l’informazione diventi inutilizzabile

Le tecniche di Quantum Error Correction

Di fatto, con la QEC (Quantum Error Correction) entra in gioco un insieme di tecniche specifiche nelle quali, a differenza di quanto accade con la correzione degli errori classica basata su bit 0 e 1, è necessario gestire i qubit che possono esistere in sovrapposizioni di stati.

Il metodo più comune di correzione degli errori consiste nel codificare un qubit logico utilizzando diversi qubit fisici. Grazie all’entangling dei qubit (vale a dire alla correlazione quantistica) e a un’attenta scelta della codifica, gli errori nei singoli qubit possono essere rilevati e corretti, preservando la loro informazione quantistica. Nella QEC, infatti, le informazioni vengono codificate in modo attento e ridondante in più qubit, in modo che gli effetti del rumore sul sistema possano essere, come suggerisce il nome, corretti

Non è un approccio semplice. Per quanto l’implementazione della QEC sia considerata essenziale nel percorso verso l’elaborazione quantistica su larga scala, non si può trascurare il fatto che richiede molto overhead.

L’architettura di correzione degli errori standard, nota come codice di superficie, richiede almeno 13 qubit fisiciper proteggere un singolo qubit “logico” utile. Quando si collegano tra loro i qubit logici, questo numero aumenta, tanto che un processore utile potrebbe richiedere 1.000 qubit fisici per ogni qubit logico [per informazioni dettagliate su questo aspetto: “An introduction to the surface code” – Andrew N. Cleland, University of Chicago].

It must be said that many are working precisely on these aspects, from giants such as AWS, Google or IBM, to smaller companies.

The development of so many noise management techniques is an important fact. We are talking about innovations that go hand in hand with the general improvement in hardware performance and with the increase in the number of qubits on each processor, essential to bring quantum computing to large-scale uses, making it comparable – if not even preferable – to traditional computational systems.

See also  NPCs come to interact with players more naturally!If you extend your hand, it will be ready to shake your hand and move the chair together | Txnet

In particular, the objective to aim for is have systems capable of competing with high-performance computing centers, with significantly reduced energy consumption. Comparable performance, reduced consumption, lower management costs: these are the objectives. Reachable? Probably within five years.

Glimpses of Futures

Addressing the topic of Quantum Noise today is essential if we really think of Quantum Computing as the “Next Big Thing”, to support key activities in the fields of medical research, chemistry and the financial world.

Let’s now see what prospects open up, making use of the STEPS matrix (Social, Technological, Economic, Political, Sustainability).

S – SOCIAL: Quantum computing has the potential to benefit society in various ways, including make decision-making processes more effective, develop drugs and vaccines more quickly, make complex services more effective. It must be said that its development is not free from ethical considerations, which address the responsible use, equitable access and potential abuse of technology. In particular, there are well-founded fears that the existing digital divide between those who have access to advanced technologies and those who do not will widen. This is why we are starting to reflect on the definition of guidelines that accompany the development of the technology.

T – TECHNOLOGY: it is an innovative technology, capable of reshaping the world. Quantum computers, powered by the principles of quantum mechanics, promise to revolutionize industries, solve complex problems and open new frontiers of knowledge.

E – ECONOMY: From a strictly economic point of view, quantum computing will have an economic impact where it is used for accelerate the resolution of complex problems. Not surprisingly, the world of finance is considered one of the potential beneficiaries of this technology. Nonetheless, scenarios of doubt arise regarding the possible impacts on safety, where quantum computing is used in decryption activities. There are also quite a few concerns from an employment point of view, on the one hand due to possible job losses, but even more so due to the lack of specialized figures capable of supporting the development of this technology on a large scale.

P – POLITICAL: the search for quantum supremacy is pushing governments and major technology companies to invest in quantum computing research and development. The United States, China and the European Union are at the forefront of this race, and each of them is trying to reach the Quantum Advantage which we have already mentioned. This commitment is driven by the desire to secure strategic advantages in fields such as encryptionthe materials science and the drug discovery. And this is where the main concerns about the possible geopolitical impact of quantum computing arise. In particular, in the field of cryptography, the capabilities of quantum computers could compromise the maintenance of secure communication channels, used in financial transactions and in the exchange of sensitive government and corporate information.

S – SUSTAINABILITY: On the one hand, quantum computers can significantly speed up complex tasks, potentially reducing energy and time requirements. On the other hand, as Deloitte explains in its own research, quantum computing is likely to transform the fight against climate change. By accelerating the development of innovative solutions to address technical challenges, quantum and digital solutions promise solution acceleration to drive progress towards sustainable solutions and informed decision-making.

breaking latest news © (Article protected by copyright)

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy