Quantencomputer als Gefahr für Verschlüsselungstechniken

Grundlagen und Einsatzbereiche von Quantencomputern

Abonnieren Sie den kostenlosen Bank Blog Newsletter

Quantencomputer können prinzipiell zwar nichts berechnen, was nicht auch klassische Computer berechnen können, jedoch sollten sie bestimmte Problemstellungen im Gegensatz zu ihnen effizienter lösen können. Das bringt auch neue Gefahren mit sich.

Grundlagen, Einsatzbereiche und Risiken von Quantencomputern

Grundlagen, Einsatzbereiche und Risiken von Quantencomputern.

Partner des Bank Blogs

YouGov ist Partner des Bank Blogs

Die Informationsverarbeitung klassischer Computer (KC) basiert auf dem Bit, welches einen von zwei Zuständen (0 oder 1) annehmen kann. Alle Berechnungen mit einem KC und seien sie auch noch so komplex müssen letztlich (auch bei höheren Programmiersprachen) auf dieses Niveau herunter gebrochen werden.

Die Zeit, welche zur Durchführung einer Berechnung benötigt wird, ist von der Anzahl der Rechenschritte pro Zeiteinheit begrenzt. Sogenannte „Super-Computer“ unterscheiden sich in diesem Sinne gegenüber einem einfachen PC nicht qualitativ sondern nur quantitativ.

Die Quantenwelt

In der klassischen Welt schreitet die Leitungssteigerung seit den 1960er Jahren mit der Minimalisierung integrierter Schaltkreise unaufhaltsam voran („Mooresches Gesetz“). Mittlerweile stößt diese Verkleinerung der Bauteile jedoch an ihre Grenzen.

Jenseits dieser Grenze gelten nicht mehr die uns vertrauten Gesetze der klassischen Physik, sondern jene der Quantenphysik. Dies erfordert eine grundsätzlich neue Herangehensweise statt ein „Weiter so wie bisher“, insbesondere zum Schutz gegen das ungewollte Entschlüsseln geheimer Nachrichten.

Sobald Berechnungen mit Bauteilen erfolgen, die sich in ihrer Größe auf dem Niveau von Atomen und Molekülen bewegen, gelten die Gesetze der klassischen Physik nicht mehr. Wir müssen auf die Erkenntnisse der Quantenmechanik (QM) zurückgreifen, welche sich fundamental von unserer Alltagserfahrung unterscheiden. Unsere Sinne sind jedoch von alltäglichen Dingen unseres Lebens geprägt und verstehen deshalb das Verhalten von Bananen und Bällen besser als jenes von Atomen und Elektronen. Quantenmechanik ist unserer Sinneswahrnehmung nicht zugänglich und daher nicht intuitiv „verstehbar“. Sie ist nur „intelligibel“, d.h. nur über den Verstand bzw. Intellekt erfassbar. Ebenso ist unsere Sprache ungeeignet zur Beschreibung der Prozesse in der Quantenwelt.

Glücklicherweise gibt es aber eine sehr gute Sprache, mit der die Ergebnisse der Quantenmechanik exakt nachvollziehbar sind, nämlich die Mathematik und hier insbesondere die lineare Algebra (Vektoren, Matrizen, Tensoren).

Das Quantenbit (QuBit) und seine Herausforderungen

Die Basiseinheit von Informationen in Quantencomputern (QC) ist das Quantenbit (QuBit). Es kann im Gegensatz zum klassischen Bit nicht nur die beiden Grundzustände 0 und 1 annehmen, sondern jede Linearkombination (das sind unendlich viele) davon. Mathematisch lässt sich dies wie folgt darstellen: |ψ  = α |0⟩ + β |1⟩ mit α, β ∈  und ||α||2 + ||β||2 = 1

Ein Quantenbit kann sich somit in unendlich vielen Überlagerungen (Superpositionen) der beiden klassischen Zustände 0 und 1 befinden, d.h. es ist gleichzeitig z.B. zu 69 Prozent im Zustand 0 und zu 31 Prozent im Zustand 1. Wollen wir etwas über seinen Zustand erfahren, müssen wir es messen, wodurch es in einen der beiden klassischen Zustände übergeht. Man misst dann mit einer Wahrscheinlichkeit von 69 Prozent den Zustand 0 und mit 31 Prozent den Zustand 1. Der Ausgang der Messung ist keine Folge unserer Unwissenheit oder der Grobheit der Messinstrumente, sondern von Natur aus unbestimmt!

Während wir das klassische Bit beliebig oft messen können und dabei immer das gleiche Ergebnis erhalten, beeinflusst die Messung das QuBit. Es ist nach der Messung kein QuBit mehr, sondern ist in einen klassischen Zustand übergegangen. QuBits verlieren somit bei Interaktion („Messung“) mit einem äußeren System sofort ihre quantenmechanischen Eigenschaften. Diesen Prozess nennt man „Dekohärenz“ und er ist nicht reversibel. Wir müssen also verhindern, dass während des Rechenprozesses das äußere System etwas über den Zustand der QuBits „erfährt“ und dass das äußere System das QuBit auf von uns nicht beabsichtigte Weise beeinflusst.

Dennoch müssen QuBits natürlich beeinflussbar sein, damit Rechenoperationen mit ihnen durchgeführt werden können. Deshalb eignen sich nur wenige (auf Temperaturen von einigen Milli-Kelvin also im Bereich von minus 273°C gekühlte) und von äußeren elektrischen und magnetischen Feldern abgeschirmte physikalische Systeme für die Realisierung von QuBits. Beispiele sind Spins von Elementarteilchen und polarisierte Photonen. Die damit heute erreichbaren Dekohärenzzeiten, während derer man mit den QuBits rechnen kann, liegen im Bereich von Millisekunden.

Der Quantencomputer und seine Eigenschaften

In einem Quantencomputer (QC) sind n QuBits aktiv. Die Anzahl der möglichen Zustände verdoppelt sich hier mit jedem weiteren QuBit, d.h. sie wächst exponentiell mit 2n. Dies ist der Grund, warum ein moderner klassischer PC zwar 20 QuBits simulieren kann, aber ein klassischer Super-Computer immer bei 100 QuBits scheitern wird!

Während ein klassischer Computer bei zwei Berechnungen mit den gleichen Ausgangswerten immer die gleichen Ergebnisse liefert, gibt uns der Quantencomputer bei zwei Berechnungen mit den gleichen Ausgangswerten zwei verschiedene Ergebnisse. Wir müssen deshalb beim QC die gleichen Berechnungen mit denselben Ausgangswerten sehr oft durchführen um eine Wahrscheinlichkeitsverteilung zu erhalten, aus der das gesuchte Ergebnis hervorsticht.

Reine QC sind nicht sinnvoll. Stattdessen baut man einen KC mit einem QC-Untersystem (analog zu „Coprozessoren“) und schreibt für den KC und den QC getrennte Programme.

Die meisten heutigen QC-Programmiersprachen sind heute maschinennah. Compiler für höhere Abstraktionslevels sind in der Entwicklung. Deshalb benötigt man heute für die Programmierung eines QCs das mathematische Hintergrundwissen der Quantenmechanik!

Die Güte und damit verbundene Leistungsfähigkeit eines QC ergibt sich

  • aus der Anzahl der zur Verfügung stehenden QuBits,
  • aus den zeitlichen Dauer, mit der ihre quantenmechanischen Eigenschaften aufrechterhalten werden können (Dekohärenzzeit) sowie
  • aus der Fehlerquote (Algorithmen zur Fehlerkorrektur sind ein eigenes Teilgebiet der Quanteninformatik).

IBM und Google verfügen in 2020 (offiziell) über QC mit 60-80 QuBits, d.h. die Entwicklung der letzten Jahre entspricht einer jährlichen Vergrößerung der QuBit-Anzahl um ca. 35 Prozent. Eine angenommene (lineare!) Extrapolation dieser Zahlen ergibt:

  • 300 QuBits in 5 Jahren.
  • 2.000 QuBits in 12 Jahren.

Anwendungen für Quantencomputer

Quantencomputer sind nicht bei allen Problemen schneller als konventionelle Rechner (Niemand wartet z.B. auf einen Quanten-Taschenrechner) und es gibt Probleme, die weder KC noch QC in endlicher Zeit und mit endlichem Speicheraufwand lösen können. QC versprechen nur bei bestimmten Fragestellungen eine z.T. exponentielle Beschleunigung („Quantum-Supremacy“). Entscheidend für die herausragende Beschleunigung gegenüber den heutigen KCn ist somit die Formulierung der konkreten Aufgabe. Die Vorteilhaftigkeit von QCn folgt aus der Anwendung bestimmter „Quantenalgorithmen“ und nicht (wie beim KC) aus der Hardware!

Bisher sind ca. 50 spezielle Problemstellungen bekannt, bei denen der QC seine Fähigkeiten ausspielen kann. Eine Übersicht findet man z.B. bei http://quantumalgorithmzoo.org/

Weitere wichtige Anwendungsgebiete für den QC sind auf diesen Feldern zu erwarten:

  • Medikamentendesign,
  • Materialwissenschaften in den Bereichen Katalysatoren, Hochtemperatur-Supraleiter und Energiespeicher (organische Batterien ohne seltene Metalle),
  • Wetter- und Klimavorhersagen sowie
  • Maschinenlernen und KI.

Quantencomputer als Gefahr für die Datensicherheit

Die zunehmende Leistungsfähigkeit von Quantencomputern bedeutet eine Gefahr im Hinblick auf die heute gängigen Verschlüsselungsverfahren. So werden die heutigen (asymmetrische) Verschlüsselungs-algorithmen in den kommenden Jahren auch durch größere Schlüssellängen keine Sicherheit gegen das Rückberechnen der Schlüssel durch Quantencomputer mehr bieten können.

Zum Bruch der heute üblichen Verfahren für Systeme zur Verschlüsselung und Authentifizierung im Internet (RSA-2048) innerhalb von 100 Tagen würde man bei heutigen Fehlerraten ca. 50 Jahre und bei 100-fach verbesserten Fehlerraten ca. 30 Jahre benötigen, im fehlerfreien Fall hingegen nur einige Tausend QuBits.

Symmetrische Verfahren (z.B. AES) müssen vor diesem Hintergrund zur Erhaltung ihres heutigen Sicherheitsniveaus ihre Schlüssellänge verdoppeln.

Für asymmetrische Verfahren (z.B. RSA, ECC) kann der Quantencomputer in 1 bis 2 Jahrzehnten eine ernsthafte Bedrohung werden, denn eine Schlüsselverlängerung bietet hier keinen weiteren Schutz. Für Informationen mit langen Geheimhaltungsfristen ergibt sich daraus dennoch akuter Handlungsbedarf. Es besteht die Gefahr, dass heute große Mengen von verschlüsselten Daten auf Vorrat gesammelt und in der Zukunft mithilfe eines QC entschlüsselt werden („save today, read tomorrow“).

Weiterhin kann die auf QCn basierende Quanten-Kryptographie dazu genutzt werden, neue abhörsichere Übertragungswege zu etablieren. Ihre Sicherheit basiert darauf, dass ein Angreifer, der die Schlüsselübertragung abhört, bemerkt wird. Stellt man fest, dass die Übertragung belauscht wurde, verwirft man (in der Praxis bei Überschreiten eines Fehler-Toleranzwertes) den übertragenen Schlüssel und beginnt die Schlüsselerzeugung und -übertragung erneut. Der Vorteil gegenüber klassischen Verfahren zur Schlüsselverteilung besteht somit darin, dass die damit erreichte Sicherheit auf bekannten physikalischen Gesetzmäßigkeiten beruht und nicht auf Annahmen über die Leistungsfähigkeit von Computern und Algorithmen oder über die Verlässlichkeit von Vertrauenspersonen.

Schlussfolgerung für Finanzinstitute

Sollten Quantencomputer mit einer ausreichenden Anzahl von QuBits in den nächsten Jahren realisiert werden können, dann deutet sich in einigen Bereichen eine „Revolution“ an, die bisherige Gewissheiten in Frage stellen werden. Die moderne Informationsgesellschaft wird dann gezwungen sein, neue Wege zu gehen, will sie weiterhin sichere Kommunikationswege zur Verfügung haben. Finanzdienstleister dürften mit zu den ersten Betroffenen gehören.

Über den Autor

Dr. Ralf Zitzelsberger

Dr. Ralf Zitzelsberger ist promovierter Physiker und arbeitet bei der SIZ GmbH in Bonn. Seine Arbeitsschwerpunkte sind Zahlungsverkehr sowie innovative Technologien (Blockchain, Quantencomputer, Künstliche Intelligenz).

Vielen Dank fürs Teilen und Weiterempfehlen


Mit dem kostenlosen Bank Blog Newsletter immer informiert bleiben:

Anzeige

Get Abstract: Zusammenfassungen interessanter Businessbücher

Kommentare sind geschlossen

Bank Blog Newsletter abonnieren

Bank Blog Newsletter abonnieren