Quantencomputer. Taktlos.

12
Martin Warnke Quantencomputer. Taktlos Speicherung, Adressierung und Taktung sind aufs Engste mit der Arbeitsweise gängiger Compu- ter verknüpft, und wie kaum ein anderes Artefakt sind Computer prägender Bestandteil unserer postindustriellen Kultur geworden. Schlaglichtartig lassen sich die drei nachfolgenden Phänome- ne aufzählen. Im klassischen Computer lässt sich die Speicherung von Daten zu beliebiger Verlässlichkeit stei- gern. Die bekanntesten Folgen dieser Verlässlichkeit sind Tauschbörsen, ein neues Urheberrecht und Strafandrohung für diejenigen, die schließlich nur das tun, wofür Computer ideal geeignet sind: das verlustfreie Kopieren und Speichern von Daten. Die totale Adressierbarkeit jedes Datums in jeder Phase der Berechnung hat die Entstehung ei- nes weltumspannenden Datennetzes und damit die Informationsgesellschaft ermöglicht, in der auch wir, die User, individuell adressierbare Empfänger und Sender von Datenpaketen geworden sind. Die Taktung, die andere als die erlaubten diskreten Werte von der Verarbeitung ausschließt, al- so Digitalität erzwingt, garantiert stabile Verhältnisse zwischen klaren Alternativen. Auf der Ebe- ne der Hardware stellt sie die Einhaltung erlaubter Spannungslevel oder eben nichts anderes als Nullen und Einsen sicher und ermöglicht damit zugleich die beliebige Kombinierbarkeit der Elementaroperationen zu komplexen Verarbeitungsschritten. Mit dem Takt schließt man effizient aus, dass ein Schaltelement in Anspruch genommen wird, bevor der saubere Übergang von Null auf z. B. fünf Volt erfolgte. Liest man den Output eines Gatters zu früh oder zu spät ab, wildert man im Revier der verbotenen Werte, und die Diskretheit und damit die Digitalität wird hin- fällig. Auf der Ebene der Datenverarbeitung stellt man mit dem Takt sicher, dass ein Datum nach dem anderen abgearbeitet wird, in Schleifen, dem prädominanten algorithmischen Mittel der Massendatenverarbeitung. Niemals zuvor in der Menschheitsgeschichte war es möglich, so kom- plexe Artefakte herzustellen und so gigantische Massen von Daten zu durchkämmen wie nun mit den synchron laufenden digitalen Schaltelementen, die nicht, wie noch bei Charles Babbage, me- chanisch durch Kraftübertragung, sondern mittels elektrischer Taktimpulse ineinander greifen. Was bei Babbage in seiner mechanisch nicht realisierbaren Analytic Engine aus Komplexitäts- gründen zerbrechen musste, weil die Zähne an den Rädern die Kräfte für so sehr viele gemein- sam zu bewegende Teile nicht aushielten die Synchronizität wurde schließlich durch mechani- sche Koppelung erzwungen , kann nun, unter einen einheitlichen Takt gestellt, so ziemlich be-

Transcript of Quantencomputer. Taktlos.

Martin Warnke

Quantencomputer. Taktlos

Speicherung, Adressierung und Taktung sind aufs Engste mit der Arbeitsweise gängiger Compu-

ter verknüpft, und wie kaum ein anderes Artefakt sind Computer prägender Bestandteil unserer

postindustriellen Kultur geworden. Schlaglichtartig lassen sich die drei nachfolgenden Phänome-

ne aufzählen.

Im klassischen Computer lässt sich die Speicherung von Daten zu beliebiger Verlässlichkeit stei-

gern. Die bekanntesten Folgen dieser Verlässlichkeit sind Tauschbörsen, ein neues Urheberrecht

und Strafandrohung für diejenigen, die schließlich nur das tun, wofür Computer ideal geeignet

sind: das verlustfreie Kopieren und Speichern von Daten.

Die totale Adressierbarkeit jedes Datums in jeder Phase der Berechnung hat die Entstehung ei-

nes weltumspannenden Datennetzes und damit die Informationsgesellschaft ermöglicht, in der

auch wir, die User, individuell adressierbare Empfänger und Sender von Datenpaketen geworden

sind.

Die Taktung, die andere als die erlaubten diskreten Werte von der Verarbeitung ausschließt, al-

so Digitalität erzwingt, garantiert stabile Verhältnisse zwischen klaren Alternativen. Auf der Ebe-

ne der Hardware stellt sie die Einhaltung erlaubter Spannungslevel oder eben nichts anderes als

Nullen und Einsen sicher und ermöglicht damit zugleich die beliebige Kombinierbarkeit der

Elementaroperationen zu komplexen Verarbeitungsschritten. Mit dem Takt schließt man effizient

aus, dass ein Schaltelement in Anspruch genommen wird, bevor der saubere Übergang von Null

auf z. B. fünf Volt erfolgte. Liest man den Output eines Gatters zu früh oder zu spät ab, wildert

man im Revier der verbotenen Werte, und die Diskretheit – und damit die Digitalität – wird hin-

fällig.

Auf der Ebene der Datenverarbeitung stellt man mit dem Takt sicher, dass ein Datum nach

dem anderen abgearbeitet wird, in Schleifen, dem prädominanten algorithmischen Mittel der

Massendatenverarbeitung. Niemals zuvor in der Menschheitsgeschichte war es möglich, so kom-

plexe Artefakte herzustellen und so gigantische Massen von Daten zu durchkämmen wie nun mit

den synchron laufenden digitalen Schaltelementen, die nicht, wie noch bei Charles Babbage, me-

chanisch durch Kraftübertragung, sondern mittels elektrischer Taktimpulse ineinander greifen.

Was bei Babbage in seiner mechanisch nicht realisierbaren Analytic Engine aus Komplexitäts-

gründen zerbrechen musste, weil die Zähne an den Rädern die Kräfte für so sehr viele gemein-

sam zu bewegende Teile nicht aushielten – die Synchronizität wurde schließlich durch mechani-

sche Koppelung erzwungen –, kann nun, unter einen einheitlichen Takt gestellt, so ziemlich be-

liebig verschaltet werden. Umfang und Leistung maschineller Informationsverarbeitung lassen

sich mittels Taktung schier endlos ausweiten.1

So werden die Datenmassen immer größer, für deren Bewältigung dann immer schnellere und

leistungsfähigere Computerbausteine nötig werden. Oder umgekehrt. Jedenfalls hält sich die In-

dustrie an das von Gordon Moore 1965 prognostizierte und nach ihm benannte Gesetz,2 nach

dem die Zahl der Komponenten auf einem Chip sich nach einer festen Zeitspanne jeweils ver-

doppelt – was dann insgesamt auch so kam und uns so ungefähr alle eineinhalb Jahre dazu ani-

miert, zum selben Preis einen etwa doppelt so schnell getakteten und umfangreich adressier- und

speicherfähigen Rechner zu kaufen.3 Was hierbei nun Henne und was Ei ist, die steigende Rech-

nerleistung oder die anfallenden Datenmassen, sei dahingestellt. Auch sie, die Datenmassen, ge-

horchen nämlich einem Entwicklungsgesetz mit exponentieller Form, gemessen etwa an der Zahl

der WWW-Server im Web.4

Hat man sich erst einmal darauf eingelassen, die Welt als gigantische Datenmasse zu begreifen

und auch so zu behandeln, dann wird Rechnerleistung eine kostspielige Angelegenheit, die zu

mehren zur volkswirtschaftlichen Notwendigkeit wird. Speicherumfänge, Adressierungsräume,

Taktfrequenzen werden dann – und sind es natürlich auch geworden – entscheidende Kenngrö-

ßen der Infrastruktur einer Gesellschaft.

So geht es die Gesellschaft auch etwas an, wenn der sicher erwartete Fortschritt seine Grenzen

zu erreichen droht, und das wird der Fall sein, wenn die bislang geltenden Prinzipien des Rech-

nerbaus obsolet werden. Liest man nämlich Moores Gesetz anders herum5, schaut man also nach,

wie klein ein elementares Bauelement und der Speicherplatz für ein Bit werden, wenn die Minia-

turisierung wie vorgesehen voranschreitet, dann landet man zwangsläufig bei einem einzelnen

Atom und später bei einem einzelnen Elementarteilchen.

1 Vgl. Sokol o. J. 2 Vgl. Moore 1965. 3 Vgl. Intel o. J. 4 Vgl. DNS Domain Survey Report: https://www.isc.org/solutions/survey. 5 Vgl. Williams/Clearwater 2000: 6.

Abb. 1

So etwa gegen 2020 werden nicht mehr dicke Materieklumpen von vielen Trillionen oder auch

nur Hunderten von Atomen das Baumaterial eines digitalen Schalters sein, sondern eine Null

oder Eins wird transklassisch durch die An- oder Abwesenheit etwa eines Atoms oder Photons

zu kodieren sein. Etwa durch die Alternative, dass ein Partikel durch den oberen oder unteren

Spalt im Doppelspalt-Experiment fliegt.6

Abb. 2

Die Physik, mit der so etwas zu beschreiben ist, ist nicht mehr die Mechanik solider Schalter,

sondern die Quantenmechanik allerkleinster Einheiten, die man kaum mehr so als solide Materie

bezeichnen kann. Die Rechner, die mit solcherlei Elementen computieren sollen, nennt man,

bevor es sie gibt und damit das Kind schon einmal einen Namen hat, Quantencomputer.

Um solcherart Computer soll es im Folgenden gehen. Dabei steht die Frage im Vordergrund,

ob auch sie sich durch die Trias von Adressierung, Speicherung und Taktung charakterisieren

lassen. Der Beitrag möchte also eine klassische Begriffsheuristik Adressierung, Speicherung und

6 Vgl. Bohr 1949: 216, 219.

Taktung einer kritischen Überprüfung unterziehen, die aufgrund massiv veränderter technischer

Ausgangsbedingungen notwendig geworden ist.

Klassische Computer

Worin sich klassische und Quantencomputer unterscheiden, hängt davon ab, auf welcher Ebene

man sie untersucht. Sie sollen im Folgenden auf einer konzeptuellen Ebene miteinander vergli-

chen werden, auf der Differenzen klarer werden. Begibt man sich auf die Ebene des konkreten

Rechnerbaus, zumindest eines solchen, der sich anschickt, künftige Quantencomputer bis hin zur

physikalischen Realisierung zu planen,7 wird es kompliziert, und es tauchen an allen Ecken und

Enden wohl etablierte Begriffe und Techniken auf, die aus dem klassischen Rechnerbau kom-

men. Denn jeder Ingenieur fragt sich, wie mit gut verstandenen und industriell beherrschbaren

Mitteln einem neuen Gebiet beizukommen ist. Ohne eine solche Herangehensweise im Gerings-

ten schmälern zu wollen, lässt sich doch der Eindruck kaum verleugnen, dass das Quantencom-

puting die Eierschalen des klassischen Rechnerbaus noch längst nicht abgestreift hat. Dies wäre

übrigens der Geschichte des Digitalcomputers durchaus nicht unähnlich. Schaut man sich an, wie

Schaltgatter gebaut sind, schlägt man sich ohne Unterlass mit der Verarbeitung analoger Signale

herum, was kaum das letzte Wort zu Digitalcomputern gewesen sein kann.

Zum Modell eines klassischen Computers muss in diesem Rahmen nicht mehr viel gesagt

werden.8 Die Turing-Maschine von 1936/37 besitzt ein beliebig langes Band, auf dem genau

identifizierbare Zeichen eines endlichen Codes stehen. Diese werden manipuliert, indem gemäß

einer Tabelle, je nach Gedächtnis der Maschine, das Zeichen auf dem Band mit dem in der Ta-

belle verglichen, dasselbe oder ein anderes Zeichen aufs Band geschrieben wird und dann das

nächste Feld dran ist, das links oder das rechts daneben. Besteht der Code nur aus Nullen oder

Einsen, nennt man ein einzelnes Zeichen ein Bit. Technisch realisiert wird die Turing-Maschine

durch eine mehr oder minder komplexe Anordnung von Registern und Speichern aus Bits.

Es wird also innerhalb dieser klassischen Konfiguration adressiert – das Zeichen, das man gera-

de bearbeitet, das links davon, das rechts davon, damit auch jedes andere –, es wird gespeichert –

anfangs auf das Band, dann durch das Schreiben und das Auslesen –, und es wird getaktet – eine

Maschinenaktion nach der anderen. Unter den vielen Simulatoren von Turings Papiermaschine

sei die seines Biographen Andrew Hodges angeführt.9 Eine beliebig herausgegriffene Program-

mieraufgabe sei die Entscheidung der Frage, ob die 5 eine Primzahl ist. Die Turing-Maschine

benötigt hierfür 489 Arbeitstakte.

7 Siehe etwa Meter/Oskin 2006. 8 Vgl. Herken 1994. 9 Vgl. Hodges 2003.

Quantencomputer

Wie steht es nun mit der Arbeitsweise eines Quantencomputers? Beginnen wir mit der Frage der

Repräsentation, also der Speicherung von Informationen. Hierfür taugt jedes Quantensystem, an

dem man mindestens zwei Zustände unterscheiden kann.

Den einen Zustand nennt man dann |0>, den anderen |1>. Ein Versuchsaufbau, mit dessen

Hilfe es möglich ist, diese sogenannten Qubits zu verarbeiten, wird Quantencomputer-

Algorithmus genannt. Er realisiert physikalisch eine Berechnung.

Zweizustandssysteme lassen sich auf atomarer Ebene unterschiedlich realisieren: etwa ein

Photon mit seiner Polarisationsrichtung horizontal oder vertikal, ein Elektron mit seinem Spin up

oder down, oder, um möglichst schnell aufs Wesentliche zu kommen, irgendein Partikel, das sich

entscheiden muss, ob es oben oder unten durch einen Spalt fliegen will. Diesen sogenannten

Doppelspaltversuch hat der dänische Physiker Niels Bohr so gezeichnet wie in Abb. 2 wiederge-

geben.

Ein Partikelstrahl trifft links auf den ersten Spalt; dies dient der Bündelung. Danach geht es wei-

ter durch den Doppelspalt. Partikel, die oben durchfliegen, bezeichnet man mit dem Zustands-

vektor

|oben>,

die, die den unteren passieren, heißen

|unten>.

Am Ende treffen die Partikel auf einen Schirm, wo sie lesbare Spuren hinterlassen. Von der Seite

sieht die Situation wie in Abbildung 3 gezeigt aus.

Abb. 3

Muster wie die rechts auf dem Schirm sind als Interferenzmuster bekannt. Sie entstehen, wenn

Wellen, etwa solche aus Licht oder aus Wasser, sich überlagern, dabei partiell auslöschen oder

sich wechselseitig verstärken. Schließt man die Klappe an einem der beiden Spalte, verschwinden

diese Muster, weil es dann keine Überlagerung von Wellen mehr gibt. Dies alles kann man, wenn

man mag, in jedem Ententeich beobachten.

Das Seltsame ist nun, dass es die Muster rechts auf dem Schirm auch dann gibt, wenn man

nicht Licht bzw. Photonen durch den Doppelspalt treibt, sondern Partikel, von denen man Grö-

ße und Masse angeben kann, etwa Elektronen oder ganze Atome, sogar Bucky Balls aus Kohlen-

stoff. Dies sind Minifußbälle von erheblichem Gewicht, Fullerene, bestehend aus 60 Kohlen-

stoffatomen, die in großen Mengen ein schwarzes Pulver bilden. Die Schlussfolgerung ist damit

nicht von der Hand zu weisen, dass auch Partikel miteinander interferieren können. Und jetzt

wird es wirklich sehr seltsam: Dies geschieht sogar dann, wenn man sie einzeln, also nacheinander

durch die Apparatur sendet.

Innerhalb einer klassischen Logik eines strikten Hier oder Dort von Körpern bleibt die Frage

unentscheidbar, durch welchen der beiden Spalte, den oberen oder den unteren, das Partikel ge-

flogen ist. Schiebt man den einen Spalt zu, um das klarzustellen, verschwindet das Interferenz-

muster. Und selbst, wenn man durch trickreiche Anordnungen das Teilchen bei der Passage oben

oder unten ertappt, zerstört man das Interferenzmuster unweigerlich.

Die nach einer folgenreichen Krisensitzung in der dänischen Hauptstadt so genannte Kopen-

hagener Deutung dieser Vorgänge von Niels Bohr und Werner Heisenberg, die sich rechnerisch

und experimentell glänzend bewährt hat, postuliert, dass sich das Teilchen zwischen Doppelspalt

und Schirm in einem Überlagerungszustand aus |oben> und |unten> befindet:

|durch> = a*|oben> + b*|unten>

Auf dem Schirm kommt es zur Interferenz der beiden Anteile des Teilchens, aber nur, wenn man

ihm die Chance lässt, also nicht durch Schließen des unteren Spalts den Koeffizienten b auf den

Wert Null zwingt und es dadurch zu einem reinen |oben> macht.

Das heißt aber in der Konsequenz: Jedes Teilchen in der Welt der Quanten wäre damit auch

ein Wellenfeld, kontinuierlich im Raum ausgebreitet. Und umgekehrt. Erwin Schrödinger drückte

das so aus: »Die heute gesicherte Meinung ist vielmehr die, daß alles, überhaupt alles, zugleich

Partikel und Feld ist.«10 Das eröffnet dem Quantencomputing den entscheidenden Aspekt, für

den allein sich alle diese Spekulationen und die Mühe um Realisierung dieser Technik lohnen: die

Quantenparallelität infolge der seltsamen Natur der Qubits.

10 Schrödinger 2007.

Quantenparallelität

Verwendet man ein beliebiges physikalisches System, das zwei Basiszustände besitzt, in Quanten-

computern zur Repräsentation von Information und nennt diese |0> und |1>, dann ist es völlig

normal, dass ein solches Qubit in einem gemischten Zustand aus dem Qubit |0> und dem Qubit

|1> vorliegen kann, so, wie das Fulleren oder das Photon oder das Elektron nun einmal rätsel-

hafterweise sowohl oben wie auch unten durch den Spalt hindurchfliegt:

|qubit> = a*|0> + b*|1>.

Ein Quantenschaltgatter kann also an einem seiner Eingänge mit einer Quantennull und einer

Quanteneins gemeinsam in einem überlagerten Zustand beschickt werden. Der Quanten-

algorithmus rechnet dann alle Kombinationen der Werte |0> und |1> auf einen Schlag durch,

wozu er ohne diese Parallelität zwei Takte benötigen würde. Diese Parallelität gilt nun nicht nur

für Zwei-Zustandssysteme, sondern auch für wesentlich nützlichere Register, die beispielsweise

acht Qubits zu einem Qubyte vereinigten. Bekannterweise kann man in acht Registerstellen ins-

gesamt 256 verschiedene Zustände kodieren:

00000000, 00000001, 00000010, …, 01111111 bis 11111111.

Diese alle durchzurechnen, würde 256 serielle Einzelschritte erfordern. Quantencomputer lösen

dies auf einen Schlag. Zunächst wird das System in einen Zustand |> der Überlagerung präpa-

riert:

|> = c1*|00000000> + … c256*|11111111>.

Dann wird das System dem Quantenalgorithmus überlassen, der nach den Gesetzen der Quan-

tenphysik, hier der Schrödingergleichung, die zeitliche Entwicklung bestimmt. Zum Schluss wird

gemessen. Heraus kommt das Resultat des Quantenalgorithmus’ für alle 256 verschiedenen rei-

nen Anfangszustände, die in der Überlagerung |> enthalten sind. Statt Eingabe, Verarbeitung,

Ausgabe heißt der quantencomputationale Schlachtruf: »Prepare! Evolve! Measure!«, und dies nur

ein einziges Mal.

In diesem Sinne überwinden Quantencomputer den Takt. Die Datenkonfigurationen eines

Qubitregisters werden nicht mehr im Takt einer Zählschleife abgearbeitet, die einen Wert nach

dem anderen festlegt, diesen verarbeitet und dann das Resultat ausgibt, sondern alles dies ge-

schieht für alle möglichen Registerkonfigurationen synchron, taktlos, einer seriellen Taktung

nicht bedürftig..

Wozu Quantencomputer?

Auf der Abstraktionsebene der Datenmassen, die von Computern in immer schnellerer Abfolge

durchkämmbar werden, bedeutet Taktung die schier unendliche, nicht enden wollende Öde einer

Erbsenzählerei im Gänsemarsch, die die Menschheit glücklicherweise dem Computer überlassen

kann und nicht mehr selbst erledigen muss.

Aber auch die schnellsten Computer klassischer Bauart sind nicht dazu in der Lage, bestimmte

aufwendige Probleme mit dieser Erbsen- oder Fliegenbeinzählerei zu bewältigen, auch, wenn

man sie so lange rechnen ließe, wie das Universum höchstens alt werden kann. Genau hier hätten

Quantencomputer ihren großen Auftritt. Aufgrund rechnerischer Komplexität unlösbare Prob-

leme wie das Knacken kryptographischer Kodes könnten in Stunden statt in Milliarden Jahren

lösbar sein.

Denn genau dies ist das Prinzip der Kryptographie mit klassischen Computern: Für das Auf-

finden des Schlüssels, der den Geheimtext in den Klartext übersetzbar macht, müssten auch

schnellste Computer sehr lange durch stures Durchprobieren rechnen, so etwa eine gute Millarde

Jahre bei einem Schlüssel von etwa 1000 Bit Länge. Ein Quantencomputer braucht dann zwi-

schen 100 Sekunden und tausend Jahren, je nach Bauart.11

Abb. 4

Die in den Himmel wachsende Kurve beschreibt das Verhalten eines klassischen, die gerade Linie

die eines Quantencomputers in doppelt logarithmischer Darstellung.

Der Quantenalgorithmus von Peter Shor zur Faktorisierung großer Zahlen12 verspricht die

praktische Möglichkeit, die allseits beliebte Verschlüsselung mit öffentlichen und privaten Schlüs-

11 Vgl. Meter u. a. 2006. 12 Vgl. Shor 1996.

seln wie PGP obsolet zu machen. Allerdings müsste man dazu einen Quantencomputer haben,

der ein Register mit mehreren hundert bis tausend Qubits sein eigen nennen kann. Doch diesen

gibt es nicht, noch nicht. Mit einer quittegelben Suppe, einem Spezial-Quantencomputer mit sie-

ben Spins, lässt sich nämlich bereits die Zahl 15 faktorisieren – in einem Rutsch, taktlos. Immer-

hin, denn dafür braucht man schon einmal ein Register mit sieben Qubits.13

Abb. 5

Adressierung und Speicherung

Nachdem der Takt in Form der Zählschleife, die den Gang der Dinge bzw. der Daten so sehr

aufhält, in Quantencomputern abgeschafft werden soll, bleiben noch die Neubewertung von Ad-

ressierung und Speicherung. Die Welt der Quanten unterscheidet nicht mehr zwischen Objekt

und Beobachter. Jede Beobachtung bedeutet eine Interaktion, die den überlagerten Quantenzu-

stand zerstört und einen reinen Zustand erzwingt. Synchron laufen die reinen Zustände einer

quantenphysikalischen Überlagerung genau zwischen den Momenten der Erzeugung des Zu-

stands und der Messung, die ihn dann wieder auflöst. Schaut man z. B. nach, ob ein Partikel oben

oder unten durch den Spalt geht, zwingt man es zum quantenmechanischen Offenbarungseid. Es

wird dann gezwungen, in einen der beiden Basiszustände überzugehen, und das Interferenzmus-

ter verschwindet. Man darf also nicht scharf hinsehen, während der Quantencomputer seine Ar-

beit tut. Das Register lässt sich zwar anfangs und am Ende präparieren und auslesen, aber es gilt

das strenge Verbot, sich Zwischenergebnisse anzuschauen. In diesem Sinne sind die Möglichkei-

ten der Adressierung gegenüber einem klassischen Computer eingeschränkt.

Bei der Speicherung und dem Kopieren von Daten liegen die Dinge ebenfalls ein wenig an-

ders als im klassischen Fall. So darf man Daten nicht kopieren, denn man würde sie beim Lesen

ja unwiederbringlich verändern. Lesen und schreiben lassen sich nicht mehr unterscheiden. Diese

13 Vgl. http://domino.watson.ibm.com/comm/pr.nsf/pages/news.20000815_quantum.html.

Quantentatsache lässt sich zu kryptographischen Zwecken ausnutzen, denn es lässt sich immer

feststellen, ob jemand mitgehört hat. Einen von Eve abgehörten Schlüssel würden Alice und Bob

bei ihrer Korrespondenz dann halt nicht verwenden, weil sie es merken würden. Geldscheine

würden unfälschbar und die Musikindustrie hätte endlich ein Mittel, um das Ein-Mal-Abhören

von Songs technisch durchzusetzen. Letzteres ist noch Fiction, aber der abhörsichere Kanal be-

reits Science. Man kann ihn kaufen, und er funktioniert schon über ein paar Dutzend Kilome-

ter.14

Das Geschäft der Deutung

Folgt man Hartmut Böhme und anderen,15 dann liegt die kulturwissenschaftliche Relevanz tech-

nischer Fragstellungen, also auch der des Rechnerbaus, in einer Selbstvergewisserung bei der

Deutung technischer Artefakte. Es werden Fragen nach den Leitbildern, den Formen von Kom-

munikation und den Erkenntnismöglichkeiten einer technomorphen Verfassung der Gesellschaft

relevant, die bei einem radikalen Paradigmenbruch wie dem beim Übergang vom klassischen zum

Quantencomputer neu zu stellen sein werden.

Die epistemologischen Probleme des Quantencomputings sind außerordentlich schwierig. Es

stellt sich nämlich die Frage, wo und wie hier überhaupt computiert wird. Die Quantenparallelität

mit ihrer astronomisch hohen Zahl von Zwischenergebnissen stellt extreme Anforderungen an

jede Form von Repräsentation. Wo bleiben die Daten? Wo werden sie physikalisch repräsentiert?

Die Zahl der Elementarteilchen, aus denen das Universum besteht, reicht nicht hin, um den No-

tizblock zu realisieren, den man für das Aufschreiben aller Nebenrechnungen braucht, um etwa

eine große Zahl mit Hilfe von Shors Algorithmus zu zerlegen. Muss man doch der Everettschen

Vielweltentheorie anhängen, die behauptet, bei jeder Quantenalternative, etwa der Wahl, oben

oder unten durch den Spalt zu gehen, müsse es je ein Universum geben, in dem das auch tatsäch-

lich passiert? So jedenfalls argumentiert David Deutsch, einer der bekennenden Verfechter der

Multiversumtheorie: »Falls also das sichtbare Universum tatsächlich die ganze physikalische Wirk-

lichkeit umfaßt, enthält sie nicht einmal näherungsweise die Ressourcen, die zur Faktorisierung

einer solch großen Zahl nötig wären. Wer hat sie dann faktorisiert? Wie und wo wurde die Rechnung

durchgeführt?«16 Die Frage nach der Realität einer nicht seriell, sondern parallel durchgeführten

Rechnung führt damit geradezu zwangsläufig zu dem Problem zurück, wie überhaupt

Synchronizität in einem Quantensystem zustande kommt.

14 Vgl. Kurtsiefer u. a. 2002. 15 Vgl. Böhme u. a. 2000: 164ff. 16 Deutsch 2000: 205. Hervorhebung im Original.

Meine Vermutung ist, dass die kulturwissenschaftlichen Deutungen der klassischen

Computerei nur ein schwaches Vorspiel der Mühen waren – und die waren noch nicht einmal

gering –, die auf uns zukommen, wenn das Quantencomputing zu einer ernsthaften technischen

Realität werden wird. Zwar konnten wir schon Anlauf nehmen bei einem erkenntnistheoretischen

Skeptizismus, wie er heutzutage nicht mehr zu vermeiden ist, aber bei der nunmehr knapp ein-

hundert Jahre alten Kopenhagener Deutung der Quantenmechanik müssen wir erst noch ange-

kommen. Diese besagt nämlich: Realität außerhalb von Messvorgängen gibt es nicht.

Es gibt nur diese vereinzelten Messereignisse, die statistischen Gesetzen gehorchen. Was zwi-

schen Messungen geschieht, etwa, ob wir uns eine Vorstellung darüber machen, wo das Partikel

gewesen ist, bevor es im Doppelspaltexperiment seine Spur macht, oder wer oder was im Quan-

tencomputer eigentlich rechnet – diese Frage überhaupt nur zu stellen, ist völlig sinnlos. So je-

denfalls Bohr und Heisenberg. Doch diese »Augen zu und durch«-Haltung der Physik kann einer

kulturwissenschaftlichen Überprüfung der klassischen Computerlogik vor dem Hintergrund des

aktuellen Quantencomputings standhalten.17 Andererseits aber ist zumindest derzeit noch völlig

offen, wie die Kulturwissenschaft auf die taktlosen Zumutungen des Quantencomputings reagie-

ren werden.

Literatur

Böhme, Hartmut u. a. 2000: Orientierung Kulturwissenschaft. Reinbek: Rowohlt 2000.

Bohr, Niels 1949: Discussion with Einstein on Epistemological Problems in Atomic Physics. In: Paul Arthur Schilpp (Hrsg.): Albert Einstein. Philosopher-Scientist. La Salle, Illinois: Open Court. S. 199-241.

Deutsch, David 2000: Die Physik der Welterkenntnis. München: dtv.

Herken, Rolf (Hrsg.): The Universal Turing Machine–A Half Century Survey. Wien, New York: Springer-Verlag, 1994.

Hodges, Andrew 2003: Turing Machines implemented in JavaScript. In: The Alan Turing Inter-net Scrapbook. URL: http://www.turing.org.uk/turing/scrapbook/tmjava.html (Abgerufen: 18. Juni 2009).

Intel o. J.: Vierzig Jahre Moorsches Gesetz. URL: http://www.intel.com/cd/corporate/techtrends/emea/deu/209836.htm (Abgerufen: 18. Juni 2009).

Kurtsiefer, Christian u. a. 2002: Quantum Cryptography. A step towards global key distribution. In: Nature 419 (2002). S. 450.

Meter, Rodney van/Oskin, Mark 2006: Architectural Implications of Quantum Computing Technologies. In: ACM Journal on Emerging Technologies in Computing Systems 2/1 (2006). S. 31-63.

17 Siehe dazu Warnke 2005.

Meter, Rodney van u. a. 2006: Architecture-Dependent Execution Time of Shor's Algorithm. In: arXiv.org. Veröffentlichung am 4. Juli 2005, letzte Änderung am 25. Mai 2006. URL: http://arxiv.org/abs/quant-ph/0507023 (Abgerufen: 18. Juni 2009).

Moore, Gordon E. 1965: Cramming more components onto integrated circuits. Electronics 38/8 (1965). S. 114-117.

Schrödinger, Erwin 2007: Was ist Materie? Originaltonaufnahmen [86 Minuten], hrsg. von Klaus Sander. Köln: Supposé.

Shor, Peter W. 1996: Polynomial-Time Algorithms for Prime Factorization and Discrete Loga-rithms on a Quantum Computer. In: arXiv.org. Veröffentlichung am 30. August 1995, letzte Än-derung am 25. Januar 1996. URL: http://arxiv.org/abs/quant-ph/9508027 (Abgerufen: 18. Juni 2009).

Sokol, John o. J.: Intel and compatable CPU's Programming Information. URL: http://www.intel80386.com/ (Abgerufen: 18. Juni 2009).

Warnke, Martin 2005: Quantum Computing. In: ders. u. a. (Hrsg.): HyperKult II – Zur Ortsbe-stimmung analoger und digitaler Medien. Bielefeld: Transcript. S. 151-172.

Williams, Colin P./Clearwater, Scott H. 2000: Ultimate Zero and One. Computing at the Quan-tum Frontier. New York: Copernicus.