Martin Warnke
Quantencomputer. Taktlos
Speicherung, Adressierung und Taktung sind aufs Engste mit der Arbeitsweise gängiger Compu-
ter verknüpft, und wie kaum ein anderes Artefakt sind Computer prägender Bestandteil unserer
postindustriellen Kultur geworden. Schlaglichtartig lassen sich die drei nachfolgenden Phänome-
ne aufzählen.
Im klassischen Computer lässt sich die Speicherung von Daten zu beliebiger Verlässlichkeit stei-
gern. Die bekanntesten Folgen dieser Verlässlichkeit sind Tauschbörsen, ein neues Urheberrecht
und Strafandrohung für diejenigen, die schließlich nur das tun, wofür Computer ideal geeignet
sind: das verlustfreie Kopieren und Speichern von Daten.
Die totale Adressierbarkeit jedes Datums in jeder Phase der Berechnung hat die Entstehung ei-
nes weltumspannenden Datennetzes und damit die Informationsgesellschaft ermöglicht, in der
auch wir, die User, individuell adressierbare Empfänger und Sender von Datenpaketen geworden
sind.
Die Taktung, die andere als die erlaubten diskreten Werte von der Verarbeitung ausschließt, al-
so Digitalität erzwingt, garantiert stabile Verhältnisse zwischen klaren Alternativen. Auf der Ebe-
ne der Hardware stellt sie die Einhaltung erlaubter Spannungslevel oder eben nichts anderes als
Nullen und Einsen sicher und ermöglicht damit zugleich die beliebige Kombinierbarkeit der
Elementaroperationen zu komplexen Verarbeitungsschritten. Mit dem Takt schließt man effizient
aus, dass ein Schaltelement in Anspruch genommen wird, bevor der saubere Übergang von Null
auf z. B. fünf Volt erfolgte. Liest man den Output eines Gatters zu früh oder zu spät ab, wildert
man im Revier der verbotenen Werte, und die Diskretheit – und damit die Digitalität – wird hin-
fällig.
Auf der Ebene der Datenverarbeitung stellt man mit dem Takt sicher, dass ein Datum nach
dem anderen abgearbeitet wird, in Schleifen, dem prädominanten algorithmischen Mittel der
Massendatenverarbeitung. Niemals zuvor in der Menschheitsgeschichte war es möglich, so kom-
plexe Artefakte herzustellen und so gigantische Massen von Daten zu durchkämmen wie nun mit
den synchron laufenden digitalen Schaltelementen, die nicht, wie noch bei Charles Babbage, me-
chanisch durch Kraftübertragung, sondern mittels elektrischer Taktimpulse ineinander greifen.
Was bei Babbage in seiner mechanisch nicht realisierbaren Analytic Engine aus Komplexitäts-
gründen zerbrechen musste, weil die Zähne an den Rädern die Kräfte für so sehr viele gemein-
sam zu bewegende Teile nicht aushielten – die Synchronizität wurde schließlich durch mechani-
sche Koppelung erzwungen –, kann nun, unter einen einheitlichen Takt gestellt, so ziemlich be-
liebig verschaltet werden. Umfang und Leistung maschineller Informationsverarbeitung lassen
sich mittels Taktung schier endlos ausweiten.1
So werden die Datenmassen immer größer, für deren Bewältigung dann immer schnellere und
leistungsfähigere Computerbausteine nötig werden. Oder umgekehrt. Jedenfalls hält sich die In-
dustrie an das von Gordon Moore 1965 prognostizierte und nach ihm benannte Gesetz,2 nach
dem die Zahl der Komponenten auf einem Chip sich nach einer festen Zeitspanne jeweils ver-
doppelt – was dann insgesamt auch so kam und uns so ungefähr alle eineinhalb Jahre dazu ani-
miert, zum selben Preis einen etwa doppelt so schnell getakteten und umfangreich adressier- und
speicherfähigen Rechner zu kaufen.3 Was hierbei nun Henne und was Ei ist, die steigende Rech-
nerleistung oder die anfallenden Datenmassen, sei dahingestellt. Auch sie, die Datenmassen, ge-
horchen nämlich einem Entwicklungsgesetz mit exponentieller Form, gemessen etwa an der Zahl
der WWW-Server im Web.4
Hat man sich erst einmal darauf eingelassen, die Welt als gigantische Datenmasse zu begreifen
und auch so zu behandeln, dann wird Rechnerleistung eine kostspielige Angelegenheit, die zu
mehren zur volkswirtschaftlichen Notwendigkeit wird. Speicherumfänge, Adressierungsräume,
Taktfrequenzen werden dann – und sind es natürlich auch geworden – entscheidende Kenngrö-
ßen der Infrastruktur einer Gesellschaft.
So geht es die Gesellschaft auch etwas an, wenn der sicher erwartete Fortschritt seine Grenzen
zu erreichen droht, und das wird der Fall sein, wenn die bislang geltenden Prinzipien des Rech-
nerbaus obsolet werden. Liest man nämlich Moores Gesetz anders herum5, schaut man also nach,
wie klein ein elementares Bauelement und der Speicherplatz für ein Bit werden, wenn die Minia-
turisierung wie vorgesehen voranschreitet, dann landet man zwangsläufig bei einem einzelnen
Atom und später bei einem einzelnen Elementarteilchen.
1 Vgl. Sokol o. J. 2 Vgl. Moore 1965. 3 Vgl. Intel o. J. 4 Vgl. DNS Domain Survey Report: https://www.isc.org/solutions/survey. 5 Vgl. Williams/Clearwater 2000: 6.
Abb. 1
So etwa gegen 2020 werden nicht mehr dicke Materieklumpen von vielen Trillionen oder auch
nur Hunderten von Atomen das Baumaterial eines digitalen Schalters sein, sondern eine Null
oder Eins wird transklassisch durch die An- oder Abwesenheit etwa eines Atoms oder Photons
zu kodieren sein. Etwa durch die Alternative, dass ein Partikel durch den oberen oder unteren
Spalt im Doppelspalt-Experiment fliegt.6
Abb. 2
Die Physik, mit der so etwas zu beschreiben ist, ist nicht mehr die Mechanik solider Schalter,
sondern die Quantenmechanik allerkleinster Einheiten, die man kaum mehr so als solide Materie
bezeichnen kann. Die Rechner, die mit solcherlei Elementen computieren sollen, nennt man,
bevor es sie gibt und damit das Kind schon einmal einen Namen hat, Quantencomputer.
Um solcherart Computer soll es im Folgenden gehen. Dabei steht die Frage im Vordergrund,
ob auch sie sich durch die Trias von Adressierung, Speicherung und Taktung charakterisieren
lassen. Der Beitrag möchte also eine klassische Begriffsheuristik Adressierung, Speicherung und
6 Vgl. Bohr 1949: 216, 219.
Taktung einer kritischen Überprüfung unterziehen, die aufgrund massiv veränderter technischer
Ausgangsbedingungen notwendig geworden ist.
Klassische Computer
Worin sich klassische und Quantencomputer unterscheiden, hängt davon ab, auf welcher Ebene
man sie untersucht. Sie sollen im Folgenden auf einer konzeptuellen Ebene miteinander vergli-
chen werden, auf der Differenzen klarer werden. Begibt man sich auf die Ebene des konkreten
Rechnerbaus, zumindest eines solchen, der sich anschickt, künftige Quantencomputer bis hin zur
physikalischen Realisierung zu planen,7 wird es kompliziert, und es tauchen an allen Ecken und
Enden wohl etablierte Begriffe und Techniken auf, die aus dem klassischen Rechnerbau kom-
men. Denn jeder Ingenieur fragt sich, wie mit gut verstandenen und industriell beherrschbaren
Mitteln einem neuen Gebiet beizukommen ist. Ohne eine solche Herangehensweise im Gerings-
ten schmälern zu wollen, lässt sich doch der Eindruck kaum verleugnen, dass das Quantencom-
puting die Eierschalen des klassischen Rechnerbaus noch längst nicht abgestreift hat. Dies wäre
übrigens der Geschichte des Digitalcomputers durchaus nicht unähnlich. Schaut man sich an, wie
Schaltgatter gebaut sind, schlägt man sich ohne Unterlass mit der Verarbeitung analoger Signale
herum, was kaum das letzte Wort zu Digitalcomputern gewesen sein kann.
Zum Modell eines klassischen Computers muss in diesem Rahmen nicht mehr viel gesagt
werden.8 Die Turing-Maschine von 1936/37 besitzt ein beliebig langes Band, auf dem genau
identifizierbare Zeichen eines endlichen Codes stehen. Diese werden manipuliert, indem gemäß
einer Tabelle, je nach Gedächtnis der Maschine, das Zeichen auf dem Band mit dem in der Ta-
belle verglichen, dasselbe oder ein anderes Zeichen aufs Band geschrieben wird und dann das
nächste Feld dran ist, das links oder das rechts daneben. Besteht der Code nur aus Nullen oder
Einsen, nennt man ein einzelnes Zeichen ein Bit. Technisch realisiert wird die Turing-Maschine
durch eine mehr oder minder komplexe Anordnung von Registern und Speichern aus Bits.
Es wird also innerhalb dieser klassischen Konfiguration adressiert – das Zeichen, das man gera-
de bearbeitet, das links davon, das rechts davon, damit auch jedes andere –, es wird gespeichert –
anfangs auf das Band, dann durch das Schreiben und das Auslesen –, und es wird getaktet – eine
Maschinenaktion nach der anderen. Unter den vielen Simulatoren von Turings Papiermaschine
sei die seines Biographen Andrew Hodges angeführt.9 Eine beliebig herausgegriffene Program-
mieraufgabe sei die Entscheidung der Frage, ob die 5 eine Primzahl ist. Die Turing-Maschine
benötigt hierfür 489 Arbeitstakte.
7 Siehe etwa Meter/Oskin 2006. 8 Vgl. Herken 1994. 9 Vgl. Hodges 2003.
Quantencomputer
Wie steht es nun mit der Arbeitsweise eines Quantencomputers? Beginnen wir mit der Frage der
Repräsentation, also der Speicherung von Informationen. Hierfür taugt jedes Quantensystem, an
dem man mindestens zwei Zustände unterscheiden kann.
Den einen Zustand nennt man dann |0>, den anderen |1>. Ein Versuchsaufbau, mit dessen
Hilfe es möglich ist, diese sogenannten Qubits zu verarbeiten, wird Quantencomputer-
Algorithmus genannt. Er realisiert physikalisch eine Berechnung.
Zweizustandssysteme lassen sich auf atomarer Ebene unterschiedlich realisieren: etwa ein
Photon mit seiner Polarisationsrichtung horizontal oder vertikal, ein Elektron mit seinem Spin up
oder down, oder, um möglichst schnell aufs Wesentliche zu kommen, irgendein Partikel, das sich
entscheiden muss, ob es oben oder unten durch einen Spalt fliegen will. Diesen sogenannten
Doppelspaltversuch hat der dänische Physiker Niels Bohr so gezeichnet wie in Abb. 2 wiederge-
geben.
Ein Partikelstrahl trifft links auf den ersten Spalt; dies dient der Bündelung. Danach geht es wei-
ter durch den Doppelspalt. Partikel, die oben durchfliegen, bezeichnet man mit dem Zustands-
vektor
|oben>,
die, die den unteren passieren, heißen
|unten>.
Am Ende treffen die Partikel auf einen Schirm, wo sie lesbare Spuren hinterlassen. Von der Seite
sieht die Situation wie in Abbildung 3 gezeigt aus.
Abb. 3
Muster wie die rechts auf dem Schirm sind als Interferenzmuster bekannt. Sie entstehen, wenn
Wellen, etwa solche aus Licht oder aus Wasser, sich überlagern, dabei partiell auslöschen oder
sich wechselseitig verstärken. Schließt man die Klappe an einem der beiden Spalte, verschwinden
diese Muster, weil es dann keine Überlagerung von Wellen mehr gibt. Dies alles kann man, wenn
man mag, in jedem Ententeich beobachten.
Das Seltsame ist nun, dass es die Muster rechts auf dem Schirm auch dann gibt, wenn man
nicht Licht bzw. Photonen durch den Doppelspalt treibt, sondern Partikel, von denen man Grö-
ße und Masse angeben kann, etwa Elektronen oder ganze Atome, sogar Bucky Balls aus Kohlen-
stoff. Dies sind Minifußbälle von erheblichem Gewicht, Fullerene, bestehend aus 60 Kohlen-
stoffatomen, die in großen Mengen ein schwarzes Pulver bilden. Die Schlussfolgerung ist damit
nicht von der Hand zu weisen, dass auch Partikel miteinander interferieren können. Und jetzt
wird es wirklich sehr seltsam: Dies geschieht sogar dann, wenn man sie einzeln, also nacheinander
durch die Apparatur sendet.
Innerhalb einer klassischen Logik eines strikten Hier oder Dort von Körpern bleibt die Frage
unentscheidbar, durch welchen der beiden Spalte, den oberen oder den unteren, das Partikel ge-
flogen ist. Schiebt man den einen Spalt zu, um das klarzustellen, verschwindet das Interferenz-
muster. Und selbst, wenn man durch trickreiche Anordnungen das Teilchen bei der Passage oben
oder unten ertappt, zerstört man das Interferenzmuster unweigerlich.
Die nach einer folgenreichen Krisensitzung in der dänischen Hauptstadt so genannte Kopen-
hagener Deutung dieser Vorgänge von Niels Bohr und Werner Heisenberg, die sich rechnerisch
und experimentell glänzend bewährt hat, postuliert, dass sich das Teilchen zwischen Doppelspalt
und Schirm in einem Überlagerungszustand aus |oben> und |unten> befindet:
|durch> = a*|oben> + b*|unten>
Auf dem Schirm kommt es zur Interferenz der beiden Anteile des Teilchens, aber nur, wenn man
ihm die Chance lässt, also nicht durch Schließen des unteren Spalts den Koeffizienten b auf den
Wert Null zwingt und es dadurch zu einem reinen |oben> macht.
Das heißt aber in der Konsequenz: Jedes Teilchen in der Welt der Quanten wäre damit auch
ein Wellenfeld, kontinuierlich im Raum ausgebreitet. Und umgekehrt. Erwin Schrödinger drückte
das so aus: »Die heute gesicherte Meinung ist vielmehr die, daß alles, überhaupt alles, zugleich
Partikel und Feld ist.«10 Das eröffnet dem Quantencomputing den entscheidenden Aspekt, für
den allein sich alle diese Spekulationen und die Mühe um Realisierung dieser Technik lohnen: die
Quantenparallelität infolge der seltsamen Natur der Qubits.
10 Schrödinger 2007.
Quantenparallelität
Verwendet man ein beliebiges physikalisches System, das zwei Basiszustände besitzt, in Quanten-
computern zur Repräsentation von Information und nennt diese |0> und |1>, dann ist es völlig
normal, dass ein solches Qubit in einem gemischten Zustand aus dem Qubit |0> und dem Qubit
|1> vorliegen kann, so, wie das Fulleren oder das Photon oder das Elektron nun einmal rätsel-
hafterweise sowohl oben wie auch unten durch den Spalt hindurchfliegt:
|qubit> = a*|0> + b*|1>.
Ein Quantenschaltgatter kann also an einem seiner Eingänge mit einer Quantennull und einer
Quanteneins gemeinsam in einem überlagerten Zustand beschickt werden. Der Quanten-
algorithmus rechnet dann alle Kombinationen der Werte |0> und |1> auf einen Schlag durch,
wozu er ohne diese Parallelität zwei Takte benötigen würde. Diese Parallelität gilt nun nicht nur
für Zwei-Zustandssysteme, sondern auch für wesentlich nützlichere Register, die beispielsweise
acht Qubits zu einem Qubyte vereinigten. Bekannterweise kann man in acht Registerstellen ins-
gesamt 256 verschiedene Zustände kodieren:
00000000, 00000001, 00000010, …, 01111111 bis 11111111.
Diese alle durchzurechnen, würde 256 serielle Einzelschritte erfordern. Quantencomputer lösen
dies auf einen Schlag. Zunächst wird das System in einen Zustand |> der Überlagerung präpa-
riert:
|> = c1*|00000000> + … c256*|11111111>.
Dann wird das System dem Quantenalgorithmus überlassen, der nach den Gesetzen der Quan-
tenphysik, hier der Schrödingergleichung, die zeitliche Entwicklung bestimmt. Zum Schluss wird
gemessen. Heraus kommt das Resultat des Quantenalgorithmus’ für alle 256 verschiedenen rei-
nen Anfangszustände, die in der Überlagerung |> enthalten sind. Statt Eingabe, Verarbeitung,
Ausgabe heißt der quantencomputationale Schlachtruf: »Prepare! Evolve! Measure!«, und dies nur
ein einziges Mal.
In diesem Sinne überwinden Quantencomputer den Takt. Die Datenkonfigurationen eines
Qubitregisters werden nicht mehr im Takt einer Zählschleife abgearbeitet, die einen Wert nach
dem anderen festlegt, diesen verarbeitet und dann das Resultat ausgibt, sondern alles dies ge-
schieht für alle möglichen Registerkonfigurationen synchron, taktlos, einer seriellen Taktung
nicht bedürftig..
Wozu Quantencomputer?
Auf der Abstraktionsebene der Datenmassen, die von Computern in immer schnellerer Abfolge
durchkämmbar werden, bedeutet Taktung die schier unendliche, nicht enden wollende Öde einer
Erbsenzählerei im Gänsemarsch, die die Menschheit glücklicherweise dem Computer überlassen
kann und nicht mehr selbst erledigen muss.
Aber auch die schnellsten Computer klassischer Bauart sind nicht dazu in der Lage, bestimmte
aufwendige Probleme mit dieser Erbsen- oder Fliegenbeinzählerei zu bewältigen, auch, wenn
man sie so lange rechnen ließe, wie das Universum höchstens alt werden kann. Genau hier hätten
Quantencomputer ihren großen Auftritt. Aufgrund rechnerischer Komplexität unlösbare Prob-
leme wie das Knacken kryptographischer Kodes könnten in Stunden statt in Milliarden Jahren
lösbar sein.
Denn genau dies ist das Prinzip der Kryptographie mit klassischen Computern: Für das Auf-
finden des Schlüssels, der den Geheimtext in den Klartext übersetzbar macht, müssten auch
schnellste Computer sehr lange durch stures Durchprobieren rechnen, so etwa eine gute Millarde
Jahre bei einem Schlüssel von etwa 1000 Bit Länge. Ein Quantencomputer braucht dann zwi-
schen 100 Sekunden und tausend Jahren, je nach Bauart.11
Abb. 4
Die in den Himmel wachsende Kurve beschreibt das Verhalten eines klassischen, die gerade Linie
die eines Quantencomputers in doppelt logarithmischer Darstellung.
Der Quantenalgorithmus von Peter Shor zur Faktorisierung großer Zahlen12 verspricht die
praktische Möglichkeit, die allseits beliebte Verschlüsselung mit öffentlichen und privaten Schlüs-
11 Vgl. Meter u. a. 2006. 12 Vgl. Shor 1996.
seln wie PGP obsolet zu machen. Allerdings müsste man dazu einen Quantencomputer haben,
der ein Register mit mehreren hundert bis tausend Qubits sein eigen nennen kann. Doch diesen
gibt es nicht, noch nicht. Mit einer quittegelben Suppe, einem Spezial-Quantencomputer mit sie-
ben Spins, lässt sich nämlich bereits die Zahl 15 faktorisieren – in einem Rutsch, taktlos. Immer-
hin, denn dafür braucht man schon einmal ein Register mit sieben Qubits.13
Abb. 5
Adressierung und Speicherung
Nachdem der Takt in Form der Zählschleife, die den Gang der Dinge bzw. der Daten so sehr
aufhält, in Quantencomputern abgeschafft werden soll, bleiben noch die Neubewertung von Ad-
ressierung und Speicherung. Die Welt der Quanten unterscheidet nicht mehr zwischen Objekt
und Beobachter. Jede Beobachtung bedeutet eine Interaktion, die den überlagerten Quantenzu-
stand zerstört und einen reinen Zustand erzwingt. Synchron laufen die reinen Zustände einer
quantenphysikalischen Überlagerung genau zwischen den Momenten der Erzeugung des Zu-
stands und der Messung, die ihn dann wieder auflöst. Schaut man z. B. nach, ob ein Partikel oben
oder unten durch den Spalt geht, zwingt man es zum quantenmechanischen Offenbarungseid. Es
wird dann gezwungen, in einen der beiden Basiszustände überzugehen, und das Interferenzmus-
ter verschwindet. Man darf also nicht scharf hinsehen, während der Quantencomputer seine Ar-
beit tut. Das Register lässt sich zwar anfangs und am Ende präparieren und auslesen, aber es gilt
das strenge Verbot, sich Zwischenergebnisse anzuschauen. In diesem Sinne sind die Möglichkei-
ten der Adressierung gegenüber einem klassischen Computer eingeschränkt.
Bei der Speicherung und dem Kopieren von Daten liegen die Dinge ebenfalls ein wenig an-
ders als im klassischen Fall. So darf man Daten nicht kopieren, denn man würde sie beim Lesen
ja unwiederbringlich verändern. Lesen und schreiben lassen sich nicht mehr unterscheiden. Diese
13 Vgl. http://domino.watson.ibm.com/comm/pr.nsf/pages/news.20000815_quantum.html.
Quantentatsache lässt sich zu kryptographischen Zwecken ausnutzen, denn es lässt sich immer
feststellen, ob jemand mitgehört hat. Einen von Eve abgehörten Schlüssel würden Alice und Bob
bei ihrer Korrespondenz dann halt nicht verwenden, weil sie es merken würden. Geldscheine
würden unfälschbar und die Musikindustrie hätte endlich ein Mittel, um das Ein-Mal-Abhören
von Songs technisch durchzusetzen. Letzteres ist noch Fiction, aber der abhörsichere Kanal be-
reits Science. Man kann ihn kaufen, und er funktioniert schon über ein paar Dutzend Kilome-
ter.14
Das Geschäft der Deutung
Folgt man Hartmut Böhme und anderen,15 dann liegt die kulturwissenschaftliche Relevanz tech-
nischer Fragstellungen, also auch der des Rechnerbaus, in einer Selbstvergewisserung bei der
Deutung technischer Artefakte. Es werden Fragen nach den Leitbildern, den Formen von Kom-
munikation und den Erkenntnismöglichkeiten einer technomorphen Verfassung der Gesellschaft
relevant, die bei einem radikalen Paradigmenbruch wie dem beim Übergang vom klassischen zum
Quantencomputer neu zu stellen sein werden.
Die epistemologischen Probleme des Quantencomputings sind außerordentlich schwierig. Es
stellt sich nämlich die Frage, wo und wie hier überhaupt computiert wird. Die Quantenparallelität
mit ihrer astronomisch hohen Zahl von Zwischenergebnissen stellt extreme Anforderungen an
jede Form von Repräsentation. Wo bleiben die Daten? Wo werden sie physikalisch repräsentiert?
Die Zahl der Elementarteilchen, aus denen das Universum besteht, reicht nicht hin, um den No-
tizblock zu realisieren, den man für das Aufschreiben aller Nebenrechnungen braucht, um etwa
eine große Zahl mit Hilfe von Shors Algorithmus zu zerlegen. Muss man doch der Everettschen
Vielweltentheorie anhängen, die behauptet, bei jeder Quantenalternative, etwa der Wahl, oben
oder unten durch den Spalt zu gehen, müsse es je ein Universum geben, in dem das auch tatsäch-
lich passiert? So jedenfalls argumentiert David Deutsch, einer der bekennenden Verfechter der
Multiversumtheorie: »Falls also das sichtbare Universum tatsächlich die ganze physikalische Wirk-
lichkeit umfaßt, enthält sie nicht einmal näherungsweise die Ressourcen, die zur Faktorisierung
einer solch großen Zahl nötig wären. Wer hat sie dann faktorisiert? Wie und wo wurde die Rechnung
durchgeführt?«16 Die Frage nach der Realität einer nicht seriell, sondern parallel durchgeführten
Rechnung führt damit geradezu zwangsläufig zu dem Problem zurück, wie überhaupt
Synchronizität in einem Quantensystem zustande kommt.
14 Vgl. Kurtsiefer u. a. 2002. 15 Vgl. Böhme u. a. 2000: 164ff. 16 Deutsch 2000: 205. Hervorhebung im Original.
Meine Vermutung ist, dass die kulturwissenschaftlichen Deutungen der klassischen
Computerei nur ein schwaches Vorspiel der Mühen waren – und die waren noch nicht einmal
gering –, die auf uns zukommen, wenn das Quantencomputing zu einer ernsthaften technischen
Realität werden wird. Zwar konnten wir schon Anlauf nehmen bei einem erkenntnistheoretischen
Skeptizismus, wie er heutzutage nicht mehr zu vermeiden ist, aber bei der nunmehr knapp ein-
hundert Jahre alten Kopenhagener Deutung der Quantenmechanik müssen wir erst noch ange-
kommen. Diese besagt nämlich: Realität außerhalb von Messvorgängen gibt es nicht.
Es gibt nur diese vereinzelten Messereignisse, die statistischen Gesetzen gehorchen. Was zwi-
schen Messungen geschieht, etwa, ob wir uns eine Vorstellung darüber machen, wo das Partikel
gewesen ist, bevor es im Doppelspaltexperiment seine Spur macht, oder wer oder was im Quan-
tencomputer eigentlich rechnet – diese Frage überhaupt nur zu stellen, ist völlig sinnlos. So je-
denfalls Bohr und Heisenberg. Doch diese »Augen zu und durch«-Haltung der Physik kann einer
kulturwissenschaftlichen Überprüfung der klassischen Computerlogik vor dem Hintergrund des
aktuellen Quantencomputings standhalten.17 Andererseits aber ist zumindest derzeit noch völlig
offen, wie die Kulturwissenschaft auf die taktlosen Zumutungen des Quantencomputings reagie-
ren werden.
Literatur
Böhme, Hartmut u. a. 2000: Orientierung Kulturwissenschaft. Reinbek: Rowohlt 2000.
Bohr, Niels 1949: Discussion with Einstein on Epistemological Problems in Atomic Physics. In: Paul Arthur Schilpp (Hrsg.): Albert Einstein. Philosopher-Scientist. La Salle, Illinois: Open Court. S. 199-241.
Deutsch, David 2000: Die Physik der Welterkenntnis. München: dtv.
Herken, Rolf (Hrsg.): The Universal Turing Machine–A Half Century Survey. Wien, New York: Springer-Verlag, 1994.
Hodges, Andrew 2003: Turing Machines implemented in JavaScript. In: The Alan Turing Inter-net Scrapbook. URL: http://www.turing.org.uk/turing/scrapbook/tmjava.html (Abgerufen: 18. Juni 2009).
Intel o. J.: Vierzig Jahre Moorsches Gesetz. URL: http://www.intel.com/cd/corporate/techtrends/emea/deu/209836.htm (Abgerufen: 18. Juni 2009).
Kurtsiefer, Christian u. a. 2002: Quantum Cryptography. A step towards global key distribution. In: Nature 419 (2002). S. 450.
Meter, Rodney van/Oskin, Mark 2006: Architectural Implications of Quantum Computing Technologies. In: ACM Journal on Emerging Technologies in Computing Systems 2/1 (2006). S. 31-63.
17 Siehe dazu Warnke 2005.
Meter, Rodney van u. a. 2006: Architecture-Dependent Execution Time of Shor's Algorithm. In: arXiv.org. Veröffentlichung am 4. Juli 2005, letzte Änderung am 25. Mai 2006. URL: http://arxiv.org/abs/quant-ph/0507023 (Abgerufen: 18. Juni 2009).
Moore, Gordon E. 1965: Cramming more components onto integrated circuits. Electronics 38/8 (1965). S. 114-117.
Schrödinger, Erwin 2007: Was ist Materie? Originaltonaufnahmen [86 Minuten], hrsg. von Klaus Sander. Köln: Supposé.
Shor, Peter W. 1996: Polynomial-Time Algorithms for Prime Factorization and Discrete Loga-rithms on a Quantum Computer. In: arXiv.org. Veröffentlichung am 30. August 1995, letzte Än-derung am 25. Januar 1996. URL: http://arxiv.org/abs/quant-ph/9508027 (Abgerufen: 18. Juni 2009).
Sokol, John o. J.: Intel and compatable CPU's Programming Information. URL: http://www.intel80386.com/ (Abgerufen: 18. Juni 2009).
Warnke, Martin 2005: Quantum Computing. In: ders. u. a. (Hrsg.): HyperKult II – Zur Ortsbe-stimmung analoger und digitaler Medien. Bielefeld: Transcript. S. 151-172.
Williams, Colin P./Clearwater, Scott H. 2000: Ultimate Zero and One. Computing at the Quan-tum Frontier. New York: Copernicus.
Top Related