Das Medienecho zu Quantencomputing wird stärker: in Verbindung mit künstlicher Intelligenz, schnellen Algorithmen und mittlerweile auch in den aktuellen Berichten über die Entwicklung von konkreten Produkten. Es hat sich herumgesprochen, dass Quantencomputer extrem schnelle Computer sind, die unsere Verschlüsselungssysteme in Gefahr bringen und künstliche Intelligenz schneller und intelligenter machen werden.
Quantencomputing ist jedoch ein Begriff, dem die meisten Menschen erst mal mit Respekt und Ehrfurcht gegenübertreten. Grund dafür ist vor allem die fehlende Vorstellung, wie sie eigentlich funktionieren. Was sind die Chancen und Risiken von Quantencomputern? Ich versuche in diesem Beitrag, so kurz wie möglich auf diese Fragen einzugehen.
Die wissenschaftlichen Grundlagen des Quantencomputings sind komplex und nur schwer allgemein verständlich zu erklären. Dennoch möchte ich die grundlegende Idee dahinter skizzieren, um einen ersten Einblick zu ermöglichen.
Quantencomputer können sehr komplexe Rechenaufgaben lösen, die mit „klassischen“ Computern als nicht in absehbarer Zeit lösbar gelten. Das liegt daran, dass im Quantencomputing nicht mit Bits, sondern mit sogenannten Quantenbits (Qubits) gearbeitet wird. Klassische Bits nehmen die Werte „0“ und „1“ an, in Analogie zu einem Lichtschalter kann das Licht also entweder an oder aus sein. Qubits dagegen sind Zweizustandssysteme, die sowohl die Werte „0“, „1“, jedoch auch – und darin verbirgt sich die Magie der Qubits – alles dazwischen annehmen können.
Die Quantenphysik ist eine Theorie, die zu Beginn des 20. Jahrhunderts entwickelt wurde. Sie beschäftigt sich mit den kleinsten Teilchen und hatte ursprünglich das Ziel, bestimmte Effekte in Zusammenhang mit Licht zu erklären. Dazu wurden verschiedene Experimente durchgeführt, wie beispielsweise das vermutlich bekannte „Doppelspaltexperiment“. Im klassischen Fall wird dabei Licht auf zwei schmale, parallele Spalten geworfen, beim Auftreffen gebeugt und dahinter auf einen Beobachtungsschirm geworfen, auf dem es ein Interferenzmuster aus dunklen und hellen Streifen abbildet. Dieses Experiment lässt sich mit anderen Teilchen ebenfalls durchführen, zum Beispiel mit Elektronen. Diese Experimente haben gezeigt, dass sich Licht und auch Materie je nach Umfeld wie eine Welle oder wie ein Teilchen verhält. Um dieses Verhalten zu erklären, wurde daher die Theorie der Quantenmechanik entwickelt. Die Quantenmechanik macht Vorhersagen zu den Ergebnissen, die Quanten in Experimenten liefern. Dabei ist es wichtig, dass immer nur Wahrscheinlichkeiten für ein bestimmtes Ergebnis berechnet werden können und es kein definitives, deterministisches Verhalten gibt. Das quantenmechanische Verhalten ist in unserem klassischen Weltbild nicht erklärlich, spiegelt aber einen Grenzfall der Quantenmechanik wider, in dem eine Abweichung von unserer „normalen“ Welt extrem unwahrscheinlich wird. Quantencomputing basiert auf zwei grundlegenden quantenmechanischen Eigenschaften, die Qubits erfüllen:
- Veränderungen beim Messen: Ein Qubit liefert beim Messen immer den Wert „0“ oder den Wert „1“. Die Werte dazwischen werden im Allgemeinen für Quantenalgorithmen genutzt, doch beim Messen nicht ausgegeben. Das Qubit nimmt erst beim Messen den gemessenen Wert an, der ursprüngliche Wert, auch wenn er zwischen 0 und 1 lag, wird dabei überschrieben. Hier ist zu beachten, dass das gemessene Ergebnis auch einer Wahrscheinlichkeitsverteilung folgt.
- Quantenverschränkung: Die Veränderung eines Qubits kann zu Veränderungen der Eigenschaften eines anderen Qubits im Raum führen. Diese Veränderung passiert schneller als das Licht braucht, um den Raum von einem Qubit zum anderen zu durchqueren.
Die Veränderung beim Messen wird in der Informatik normalerweise nicht berücksichtigt. In der realen Welt ist das jedoch unumgänglich.
Die Quantenverschränkung, von Albert Einstein als „spukhafte Fernwirkung“ bezeichnet, ist heute eines der paradoxesten und erstaunlichsten Phänomene der Physik. Sie sorgt dafür, dass Teilchen nicht mehr unabhängig voneinander charakterisiert werden können. Die Bezeichnung „spukhaft“ ist deshalb so zutreffend, weil diese Verbindung wie eine unsichtbare Verbindung zwischen den Teilchen erscheint. Sie ist allerdings kein Widerspruch zur Relativitätstheorie, die besagt, dass weder Materie noch Information schneller als Lichtgeschwindigkeit transportiert werden kann und diese Wechselwirkung keine messbare Information übermittelt.
Es gibt eine Vielzahl verschiedener Möglichkeiten, Qubits zu realisieren und miteinander zu verschränken. Die Wissenschaft ist noch dabei, diese Verschränkungen zu messen und zu charakterisieren. Verschiedene Forschungsgruppen konzentrieren sich dabei auf verschiedene Umsetzungsvarianten. Die technische Umsetzung von Quantencomputern muss viele technische Hürden überwinden, da die Qubits noch sehr instabil sind, was Rechnungen mit Quantenalgorithmen limitiert.
Daher haben sich Unternehmen und Forscher intensiver damit auseinandergesetzt, Quantenfehlerkorrekturen vorzunehmen. Dem Team von Google Quantum AI ist es im Jahr 2024 gelungen, einen wichtigen Meilenstein zu erreichen. Am 09. Dezember 2024 veröffentlichten sie im renommierten Fachmagazin „Nature“ eine Publikation über ihren entwickelten Quantenprozessor „Willow“. Die Qubits von Willow halten ihren Zustand fünf Mal länger als der Vorgänger es konnte, und liefern somit eine deutlich geringere Fehlerrate von Quantenberechnungen. Mit dem Prozessor legt das Team von Google Quantum AI and Collaborations einen wichtigen Grundbaustein für einen fehlertolerante Quantencomputer, der nach Angaben der Forscher sogar für bestimmte Aufgaben viel schneller als der Supercomputer „Frontier“ sein soll.
Quantencomputer profitieren somit von den rätselhaften Eigenschaften kleinster Teilchen wie der Quantenverschränkung. Zudem ermöglicht jedes Qubit, um das der Prozessor erweitert wird, die Verarbeitung von wesentlich mehr Informationen in derselben Zeit, wodurch das Quantencomputing auch leistungsfähiger wird. Die Anzahl der Qubits, mit denen ein Quantencomputer rechnen kann, hat also eine ganz andere Bedeutung als die Anzahl Bits, die eine moderne, klassische CPU verarbeiten kann, typischerweise 64 Bits für moderne CPUs. Welche Chancen und Risiken bringt das mit sich?
Ein Quantencomputer ist nicht dazu gedacht, unsere klassischen Computer zu ersetzen. Er soll als Ergänzung dienen, der dem klassischen Computer bestimmte Aufgaben abnimmt und Prozesse beschleunigt. Noch ist nicht ganz klar, wie mächtig Quantencomputer sein können, zumal die Probleme, die gelöst werden sollen, zuerst als Quantenproblem formuliert werden müssen, damit ein entsprechender Computer diese dann lösen kann. Dies bedeutet für jede einzelne Aufgabe einen erheblichen Vorbereitungsaufwand. Der Quantencomputer muss quasi für jede Aufgabe neu optimiert werden. Es gibt allerdings schon einige Probleme, die durch Quantencomputing erwiesenermaßen schneller behoben werden können. Beispiele dafür sind Suchprobleme, Faktorisieren großer Zahlen oder auch die Berechnung des diskreten Logarithmus. Die letzten beiden Punkte spielen besonders bei der asymmetrischen Verschlüsselung (s.u.) eine wichtige Rolle.
Quantencomputer sollen in der Entwicklung von Medikamenten und in der Krebsforschung eingesetzt werden, in der Optimierung und Effizienzgestaltung in verschiedenen Bereichen wie beispielsweise Landwirtschaft oder Verkehr und Routenplanungen, und in der Erforschung von Klimaphänomenen. Dabei handelt es sich um sogenannte NP-harte Probleme, die durch klassische Algorithmen und Computer ab einer gewissen Größe als nicht mehr lösbar gelten.
Andererseits stellen Quantencomputer ein Risiko für die IT-Sicherheit dar. Da sie die Faktorisierung großer Zahlen und die Berechnung des diskreten Logarithmus in kurzer Zeit ermöglichen, werden Verschlüsselungsverfahren wie RSA oder Diffie-Hellman unsicher und könnten bei weit verbreiteter Nutzung von Quantencomputern unbrauchbar werden. Dieses Problem lässt viele mit Angst auf Quantencomputer blicken. Dies ist jedoch kein Grund zur Panik. Auch in der Vergangenheit wurden kryptographische Standards wie DES als unsicher eingestuft und daher zu neuen Standards – hier AES – weiterentwickelt. Dementsprechend laufen parallel zur Forschung der Quantenphysik auch Forschungen in der Quantenkryptographie und Post-Quanten-Kryptographie. Hinzu kommt, dass Quantencomputer vor allem asymmetrische Verschlüsselungsverfahren, wie zum Beispiel die oben genannten Verfahren RSA und Diffie-Hellman, gefährden. Symmetrische Verfahren, insbesondere AES, sind durch Quantencomputer nach aktuellem Wissensstand nicht gefährdet.
Das US-amerikanische NIST (National Institute of Standards and Technology) veröffentlichte im August 2024 die ersten drei finalen Post-Quantum-Encryption-Standards zu einigen gegen bisher denkbare Angriffe von Quantencomputern immunen kryptografischen Verfahren:
- Federal Information Processing Standard (FIPS) 203 – Standard für allgemeine Verschlüsselungen
- FIPS 204 – Standard für den Schutz von Digitalen Signaturen
- FIPS 205 – ebenfalls ein Standard für Digitale Signaturen
Diese Standards sollen dafür sorgen, dass es auch zukünftig sichere Kommunikation über das Internet geben kann.
Es ist und bleibt spannend, wohin uns die Entwicklung von Quantencomputing führen wird, was alles damit umgesetzt werden kann und ob wir es schaffen, weiterhin über Netzwerke sicher zu kommunizieren. Fest steht, dass vor allem Cyber Security durch die künftige Verfügbarkeit von Quantencomputern grundlegend verändert wird.
Quellen
- „Quantencomputing kompakt“, Bettina Just, Springer Vieweg 2021
- https://www.spektrum.de/magazin/doppelspaltexperiment-lichtwellen-quetschen-sich-durch-zeitschlitze/2181354
- https://www.mpq.mpg.de/6520992/05-revealing-einstein-s-spooky-action-without-destroying-it
- Quantum error correction below the surface code threshold | Nature
- Google stellt neuen Quantenprozessor „Willow“ vor | heise online
- NIST Releases First 3 Finalized Post-Quantum Encryption Standards | NIST