Studie zeigt Grenzen des Ausmaßes auf, bis zu dem Quantenfehler in großen Systemen „aufgehoben“ werden können

Bildnachweis: Quek et al.

Quantencomputer haben das Potenzial, klassische Computer bei einigen Problemen der Informationsverarbeitung von praktischer Bedeutung zu übertreffen, vielleicht sogar beim maschinellen Lernen und der Optimierung. Allerdings ist ihr großflächiger Einsatz noch nicht möglich, vor allem wegen ihrer Empfindlichkeit gegenüber Lärm, die dazu führt, dass sie Fehler machen.

Eine Technik zur Behebung dieser Fehler ist als Quantenfehlerkorrektur bekannt. Es ist so konzipiert, dass es „on the fly“ arbeitet, Fehler überwacht und Berechnungen wiederherstellt, wenn Fehler auftreten. Trotz enormer Fortschritte in dieser Richtung in den letzten Monaten bleibt diese Strategie experimentell sehr schwierig und mit erheblichen Ressourcenkosten verbunden.

Ein anderer Ansatz, die so genannte Quantenfehlerkorrektur, funktioniert indirekter: Anstatt Fehler zu korrigieren, sobald sie auftreten, wird die fehlerbehaftete Berechnung (oder modifizierte Versionen davon) bis zu ihrem Ende durchgeführt. Erst am Ende gehen wir zurück, um das richtige Ergebnis abzuleiten. Diese Methode wurde als Alternative zur Behebung von Fehlern von Quantencomputern vorgeschlagen, bevor eine vollständige Fehlerkorrektur implementiert werden kann.

Forscher des Massachusetts Institute of Technology, der École Normale Supérieure de Lyon, der University of Virginia und der Freien Universität Berlin haben jedoch gezeigt, dass Techniken zur Quantenfehlerminderung sehr wirkungslos werden, da Quantencomputer immer größer und effizienter werden.

Dies impliziert, dass Fehlerminderung keine langfristige Lösung für das wiederkehrende Problem des Rauschens im Quantencomputing sein wird. Ihr Artikel, veröffentlicht in Naturphysikbietet Ratschläge zu Programmen zur Abschwächung der negativen Auswirkungen von Rauschen auf Quantenberechnungen, die dazu verdammt sind, ineffizient zu sein.

„Wir haben über die Grenzen des kurzfristigen Quantencomputings mit verrauschten Quantengattern nachgedacht“, sagte Jens Eisert, Co-Autor des Artikels, gegenüber Phys.org.

„Unser Kollege Daniel Stilck França hatte gerade ein Ergebnis vorgelegt, das die überzeugenden kurzfristigen Grenzen des Quantencomputings verdeutlichte. Er hatte gezeigt, dass wir bei depolarisierendem Rauschen in logarithmischer Tiefe zu einem Quantenzustand gelangen würden, der mit effizienten klassischen Abtasttechniken erfasst werden könnte. Wir hatten gerade über die Minderung von Quantenfehlern nachgedacht, aber dann fragten wir uns: Moment, was bedeutet das alles für die Minderung von Quantenfehlern? »

Der aktuelle Artikel von Yihui Quek, Daniel Stilck França, Sumeet Khatri, Johannes Jakob Meyer und Jens Eisert baut auf dieser Forschungsfrage auf und zielt darauf ab, die genauen Grenzen der Quantenfehlerminderung zu erkunden. Ihre Ergebnisse zeigen, wie die Quantenfehlerminderung kurzfristig dazu beitragen kann, die Auswirkungen von Rauschen auf das Quantencomputing zu verringern.

„Die Quantenfehlerminderung sollte die Quantenfehlerkorrektur ersetzen, da ihre Umsetzung eine weniger präzise Technik erfordert. Es bestand also die Hoffnung, dass es auch für aktuelle experimentelle Möglichkeiten in Reichweite sein würde“, sagte Yihui Quek, Hauptautor der Studie, gegenüber Phys.org.

„Aber als wir uns diese relativ einfacheren Schadensbegrenzungsmaßnahmen genauer ansahen, wurde uns klar, dass es vielleicht nicht beides geben kann. Sicherlich erfordern sie weniger Qubits und weniger Kontrolle, aber das geht oft mit dem Preis einher, dass das gesamte System besorgniserregend oft ausgeführt werden muss. »

Das Team stellte fest, dass ein Beispiel für ein Abhilfeschema, das Einschränkungen aufwies, die sogenannte „Null-Fehler-Extrapolation“ ist. Bei diesem Schema wird die Rauschmenge in einem System schrittweise erhöht und dann die Ergebnisse der Berechnung mit dem höchsten Rauschen in ein Null-Rauschen-Szenario umgewandelt.

„Um Lärm zu bekämpfen, muss man den Lärm im System erhöhen“, sagt Quek. „Schon intuitiv ist klar, dass dies nicht skalierbar sein kann. »

Quantenschaltkreise (d. h. Quantenprozessoren) bestehen aus aufeinanderfolgenden Schichten von Quantengattern, von denen jedes Berechnungen von der vorherigen Schicht empfängt und diese weiterleitet. Wenn die Gatter jedoch verrauscht sind, wird jede Schicht der Schaltung zu einem zweischneidigen Schwert, denn wenn sie eine Berechnung vorantreibt, führt das Gatter selbst zu zusätzlichen Fehlern.

„Dadurch entsteht ein schreckliches Paradoxon: Man benötigt viele Gatterschichten (daher einen tiefen Schaltkreis), um eine nicht triviale Berechnung durchzuführen“, sagte Quek.

„Allerdings ist ein tieferer Schaltkreis auch lauter: Es ist wahrscheinlicher, dass er Unsinn produziert. Es gibt also einen Wettlauf zwischen der Geschwindigkeit, mit der Sie rechnen können, und der Geschwindigkeit, mit der sich Berechnungsfehler anhäufen.

„Unsere Arbeit zeigt, dass es extrem gefährliche Strecken gibt, auf denen die letzte viel schneller ist als ursprünglich angenommen; So sehr, dass sie, um diese gefährlichen Schaltkreise zu entschärfen, unrealistisch oft ausgeführt werden müssten. Dies gilt unabhängig vom spezifischen Algorithmus, den Sie zur Fehlerminderung verwenden. »

Die aktuelle Studie von Quek, Eisert und ihren Kollegen legt nahe, dass die Quantenfehlerminderung nicht so skalierbar ist, wie einige vorhergesagt haben. Tatsächlich stellte das Team fest, dass mit der Skalierung von Quantenschaltkreisen der Aufwand oder die Ressourcen, die zur Fehlerminderung erforderlich sind, deutlich zunimmt.

„Wie bei allen verbotenen Theoremen sehen wir sie lieber weniger als Hindernis, sondern eher als Einladung“, sagte Eisert.

„Vielleicht kommen wir durch die Arbeit mit lokal geometrisch verbundenen Bestandteilen zu viel optimistischeren Parametern, in diesem Fall ist unsere Grenze vielleicht viel zu pessimistisch. Gängige Architekturen weisen häufig solche lokalen Interaktionen auf. Unsere Studie kann auch als Einladung gesehen werden, über kohärentere Konzepte zur Minderung von Quantenfehlern nachzudenken. »

Die Ergebnisse dieses Forschungsteams könnten Quantenphysikern und Ingenieuren auf der ganzen Welt als Leitfaden dienen und sie dazu veranlassen, alternative und effizientere Systeme zur Minderung von Quantenfehlern zu entwickeln. Darüber hinaus könnten sie weitere Studien anregen, die sich auf theoretische Aspekte zufälliger Quantenschaltungen konzentrieren.

„Frühere vereinzelte Arbeiten zu einzelnen Quantenfehlerminderungsalgorithmen hatten darauf hingewiesen, dass diese Schemata nicht skalierbar sein würden“, sagte Quek.

„Wir haben ein Framework entwickelt, das viele dieser einzelnen Algorithmen erfasst. Dadurch konnten wir zeigen, dass diese von anderen festgestellte Ineffizienz der gesamten Idee der Quantenfehlerminderung innewohnt und nichts mit der konkreten Implementierung zu tun hat.

„Möglich wurde dies durch die von uns entwickelten mathematischen Mechanismen, die die robustesten bisher bekannten Ergebnisse darüber liefern, wie schnell Schaltkreise aufgrund physikalischen Rauschens ihre Quanteninformation verlieren können.“ »

In Zukunft könnte die Arbeit von Quek, Eisert und ihren Kollegen Forschern dabei helfen, schnell die Arten von Quantenfehlerminderungssystemen zu identifizieren, die wahrscheinlich unwirksam sind. Die zentrale konzeptionelle Idee der Ergebnisse des Teams besteht darin, die Intuition zu kristallisieren, dass Tore mit großer Reichweite (d. h. Tore mit Qubits, die durch große Entfernungen getrennt sind) sowohl vorteilhaft als auch problematisch sein können, da sie leicht eine Verschränkung erzeugen, die die Berechnung vorantreibt, während sie sich verbreiten Rauschen schneller in einem System.

„Das wirft natürlich die Frage auf, ob es überhaupt möglich ist, Quantenvorteile zu erzielen, ohne diese ‚Superspreizer‘ von Quanten und ihrem schlimmsten Feind (Rauschen) zu nutzen“, fügte Quek hinzu. „Bemerkenswert ist, dass nicht alle unsere Ergebnisse gelten, wenn mitten in der Berechnung neue Hilfs-Qubits eingeführt werden, was daher in gewissem Umfang notwendig sein kann. »

In ihren nächsten Studien planen die Forscher, ihren Fokus von den identifizierten Problemen auf mögliche Lösungen zu deren Überwindung zu verlagern. Einige ihrer Kollegen haben in dieser Richtung bereits Fortschritte gemacht, indem sie eine Kombination aus randomisiertem Benchmarking und Quantenfehlerminderungstechniken eingesetzt haben.

Weitere Informationen:
Yihui Quek et al., Exponentially Tighter Bounds on Quantum Error Mitigation Limitations, Naturphysik (2024). DOI: 10.1038/s41567-024-02536-7.

© 2024 Science X Network

Zitat:Studie zeigt Grenzen des Ausmaßes auf, in dem Quantenfehler in großen Systemen „aufgedeckt“ werden können (2024, 11. August), abgerufen am 11. August 2024 von https://phys.org/news/2024-08-unveils -limits-extent- Quantenfehler.html

Dieses Dokument unterliegt dem Urheberrecht. Mit Ausnahme der fairen Nutzung für private Studien- oder Forschungszwecke darf kein Teil ohne schriftliche Genehmigung reproduziert werden. Der Inhalt dient ausschließlich Informationszwecken.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *