Lange war der Quantencomputer nur ein Gegenstand der Grundlagenforschung, aber in den letzten zwei Jahren ist das Thema auch in der Industrie angekommen. Zahlreiche große Firmen wie Google, IBM und Intel arbeiten an der Realisierung eines Quantencomputers.
Der Quantencomputer erlaubt es, verschiedene spezielle Probleme extrem viel schneller zu lösen als das mit herkömmlichen Computern möglich wäre. Dabei darf man allerdings einen Quantencomputer nicht einfach als schnelleren Computer betrachten. Die Probleme, die ein Quantencomputer lösen kann, müssen spezifische Eigenschaften haben, die es erlauben, die Gesetze der Quantenmechanik zu nutzen, um schneller eine Lösung zu erzielen.
Die grundlegende Einheit des Quantencomputers ist das quantenmechanische Bit, kurz Qubit. Während das herkömmliche Bit, auf dem unsere jetzigen Computer beruhen, entweder den Wert 0 oder 1 annimmt, kann ein Qubit gleichzeitig beide Werte annehmen.
Wie viele Dinge in der Quantenmechanik mag das sehr mysteriös klingen, aber man kann sich das vorstellen wie einen Pfeil, der sich auf einer Kugeloberfläche bewegt. Bei einem Bit kann der Pfeil nur nach oben oder nach unten zeigen. Bei einem Qubit kann der Pfeil in jede Richtung zeigen.
Diese Eigenschaft ist tatsächlich noch nichts Besonderes. Die Eigenschaften des Quantencomputers, die eine immense Beschleunigung erlauben, treten erst zutage, wenn man viele Qubits betrachtet.
Tatsächlich ist die Darstellung des Bits und des Qubits als Pfeil gut geeignet, eines der wesentlichen Probleme des Quantencomputers zu verdeutlichen. Wenn bei einem klassischen Bit eine Störung die Richtung des Pfeils leicht verändert, bleibt die wesentliche Information, also hoch oder runter, erhalten. Somit lässt sich die Richtung weiterhin dem Wert Eins oder Null zuordnen.
Lesen Sie auch: Wieso Quantencomputer uns zum Umdenken zwingen
Ein Qubit soll in jede beliebige Richtung zeigen können. Dementsprechend erzeugt jede Störung, die die Richtung des Pfeils verändert, automatisch einen Fehler im Zustand des Qubits. Dementsprechend sind Quantencomputer fundamental fehleranfälliger als dies bei herkömmlichen Computern der Fall ist.
Der Vorteil des Quantencomputers ergibt sich, sobald wir viele Bits mit vielen Qubits betrachten. Wenn uns 8 Bits zur Verfügung stehen, können diese genau eine Zahl zwischen 0 und 255 speichern. 8 Qubits hingegen können in allen 256 Möglichkeiten gleichzeitig sein. Wird ein Qubit addiert, sind das schon 1024 Möglichkeiten. Mit einem weiteren Qubit haben wir schon 2048 Möglichkeiten. Nur 34 Qubits reichen, um mehr als 10 Milliarden Werte gleichzeitig darzustellen.
Wenn dann eine Operation auf die Qubits durchgeführt wird, wird diese auf alle Zustände gleichzeitig durchgeführt - d.h. im Falle von 34 Qubits direkt auf 10 Milliarden Zustände gleichzeitig.
Dies ist der fundamentale Grund, warum der Quantencomputer für bestimmte Probleme eine riesige Beschleunigung erreichen kann. Allerdings ist es sehr schwierig, Algorithmen zu finden, die diese Beschleunigung ausnutzen. Dies liegt daran, dass eine Messung der Qubits dazu führt, dass der Zustand auf nur einen der möglichen Werte reduziert wird bzw. der Zustand wird auf eine der Möglichkeiten projiziert, wie man es in der Quantenmechanik ausdrücken würde.
Deshalb funktionieren die meisten Algorithmen so, dass zuerst der komplette Raum der Möglichkeiten aufgespannt wird und dann per Interferenz Zustände wieder entfernt werden, so dass am Ende nur eine Zahl übrigbleibt. Diese entspricht dann dem Ergebnis der Berechnung.
Die grundlegenden Konzepte des Quantencomputers waren bereits in den frühen 80er Jahren des vorigen Jahrhunderts bekannt. Aber die ersten Algorithmen wurden erst in den frühen 90ern gefunden.
Der erste aufsehenerregende Algorithmus, der ein Problem von weitreichender Bedeutung löst, wurde 1995 von Peter Shor vorgestellt. Der berühmte Shor'sche Algorithmus erlaubt die effiziente Zerlegung einer Zahl in zwei Primzahlen.
Dieser Algorithmus würde alle weit verbreiteten kryptographischen Methoden untergraben, die momentan verwendet werden, denn all diese Methoden basieren auf der Schwierigkeit der Primzahlzerlegung.
Für die Primzahlzerlegung einer Zahl mit 300 Stellen würde ein herkömmlicher Supercomputer ungefähr 150.000 Jahre brauchen. Die Zeit, die ein Quantencomputer für dieselbe Aufgabe brauchen würde, ist recht schwer abzuschätzen, da dies von der Prozessorarchitektur abhängt. Aber prinzipiell sollte ein Quantencomputer die equivalente Primzahlzerlegung in wenigen Tagen ausführen können.
Zusammen mit einer zweiten wesentlichen Entwicklung löste der Shor'sche Algorithmus ein massives Interesse an der Realisierung des Quantencomputers in der Grundlagenforschung aus.
Die zweite wesentliche Erkenntnis war die Lösung der Fehleranfälligkeit des Quantencomputers. Es wurde gezeigt, dass es möglich ist, viele Qubits zu einem sogenannten logischen Qubit zu vernetzen. Durch die erzeugte Redundanz ist es möglich, die Fehlerrate des logischen Qubits beliebig zu verringern. Dazu ist es notwendig, dass die Fehlerwahrscheinlichkeit eines einzelnen Qubits einen gewissen Grenzwert unterschreitet.
Dieser Grenzwert wurde 2015 mit Qubits erreicht, die aus supraleitendem Aluminium gebaut werden. Damit gibt es kein fundamentales Hindernis mehr, den Quantencomputer zu realisieren.
Nun ist es notwendig, mehr und mehr Qubits auf einem Prozessor zu integrieren, so dass genügend logische Qubits zur Verfügung stehen, um sinnvolle Aufgaben zu lösen. Mit den momentan verwendeten Methoden werden zwischen 1000 und 10000 Qubits benötigt, um einen fehlerfreien logischen Qubit zu realisieren. Dementsprechend werden mindestens eine Million Qubits benötigt, um 100 logische Qubits zu realisieren.
Die Integration einer solch großen Menge an Qubits sollte fundamental möglich sein.
Ähnliche Integrationsdichten werden bei herkömmlichen Prozessoren auch realisiert. Aber angesichts der Tatsache, dass die größten Chips, die von Intel und IBM vorgestellt wurden, ca. 50 Qubits enthalten, ist es klar, dass noch ein langer Weg vor uns liegt.
Dabei sollte auch beachtet werden, dass bisher nicht gezeigt wurde, dass die Qubits auch Fehlerwahrscheinlichkeiten haben, die den Grenzwert zur Fehlerkorrektur unterschreiten.
Die Firma D-Wave bietet schon heute Prozessoren mit mehr als 2000 Qubits an, aber diese Qubits haben extrem hohe Fehlerwahrscheinlichkeiten, die deutlich größer sind als der Grenzwert zur Fehlerkorrektur.
Die wesentliche Frage, die sich momentan für die Nutzung des Quantencomputers ergibt, ist die, ob schon Anwendungen mit 50 bis 100 fehlerbehafteten Qubits möglich sind oder ob das Zeitalter des Quantencomputers erst mit vollständiger Fehlerkorrektur anbricht.
Es ist zweifelsohne klar, dass der Shor'sche Algorithmus eine Fehlerkorrektur benötigt, und somit wird es selbst bei optimistischer Schätzung sicher noch mindestens 10 Jahre dauern, bis die existierende kryptographische Technologie obsolet wird.
Allerdings gibt es hochspezialisierte Algorithmen, die schon mit 50 fehlerbehafteten Qubits einen Vorteil für Quantencomputer zeigen können. Dabei geht es um Berechnungen, die man mit 50 Qubits durchführen kann und für die man mindestens ein komplettes Großrechenzentrum brauchen würde, wollte man diese Berechnungen mit herkömmlichen Rechnern durchführen.
Allerdings gibt es für diese Algorithmen keine bekannte Anwendung. Eine der effizientesten Anwendungen für den Quantencomputer ist die Simulation von Molekülen und Materialien.
Auf atomarer Basis werden die Eigenschaften aller Materialien durch die Gesetze der Quantenmechanik beschrieben. Dies macht eine solche Simulation nahezu unmöglich auf herkömmlichen Computern. Gleichzeitig können solche Simulationen sehr effizient auf einem Quantencomputer durchgeführt werden. Da die Anzahl an Operationen dann relativ klein bleibt, bleibt auch die Anzahl an Fehlern klein.
Simulation von Molekülen kann in der Chemie- und Pharmaindustrie von großem Wert sein. Es scheint durchaus möglich, dass Quantencomputer ohne Fehlerkorrektur in diesem Bereich eingesetzt werden können.
Es gibt auch zahlreiche Aktivitäten, Quantenalgorithmen im Bereich Künstliche Intelligenz zu verbessern, um diese auch ohne Fehlerkorrektur einsetzen zu können. Aber hier wird es einige signifikante wissenschaftliche Durchbrüche brauchen, um die notwendige Anzahl an Operationen so zu verringern, das Fehler während der Berechnung toleriert werden können.