Quantencomputer mit 16 Qubits

Vor kurzem wurde der erste Quantenprozessor mit 16 Qubits vorgestellt:
16 Qubits klingt nicht wirklich toll, ist aber trotzdem revolutionär viel (der bisherige Rekord lag glaube ich bei 8 Qubits). Denn das Tolle an Qubits ist, dass man mit n Qubits 2 hoch n Bits auf einmal darstellen kann. Dass heißt mit 16 Qubits kann man 2 hoch 16 = 65536 Werte auf einmal, mit 16 Bits nur einen der 65536 Werte auf einmal darstellen.
Was kann man jedoch mit 65536 dargestellten Werten auf einmal anfangen? Dazu ein Beispiel:
Will man überprüfen ob unter 65536 Werten ein ganz bestimmter dabei ist, muß man z.B. mit einer for-Schleife jeden Wert einzeln überprüfen. Dazu braucht man im schlimmsten Fall also 65536 Durchläufe. Mit 16 Qubits kann man jedoch alle 65536 Werte auf einmal überprüfen! D.h. man braucht immer nur maximal eine Operation um festzustellen, ob ein bestimmter Wert vorhanden ist. Ein Quantencomputer kann also im günstigsten Fall exponentiell mal schneller rechnen als ein herkömmlicher klassischer Computer. Das ist der Grund warum alle Physiker und Informatiker so verrückt danach sind einen zu bauen und im Gegenzug alle Hersteller von Verschlüsselungsalgorithmen es wohl am liebsten verhindern würden (Allerdings gibts ja auch noch Quantenkryptographie, sozusagen das Gegenmittel zum Quantencomputer ;-)).
Allerdings könnte es sein, das obige Meldung sich vielleicht doch als Ente entpuppt. Wie
schreibt, hat die Herstellerfirma D-Wave-Systems nur einen Remotezugriff auf den angeblichen Quantencomputer präsentiert:
Kein Wunder also, dass die Entwickler bei der ersten öffentlichen Demonstration lieber auf Nummer sicher gingen und den Prototyp ihres Quantenrechners im Labor in Vancouver stehen ließen. Der Zugriff aus dem kalifornischen Mountain View erfolgte über eine verschlüsselte Datenleitung und eine spezielle Software. Über die sollen bald auch schon die ersten Kunden den Quantenturbo aus Vancouver zuschalten können.
Könnte also gut sein, dass dahinter kein Quantencomputer, sondern nur die ein Programm zur Simulation eines Quantencomputers steckt, ausgeführt auf einem ganz profanen klassischen PC. Denn wie sollte man schon nachprüfen, ob eine Rechnung von einem Quantencomputer mit wenigen Qubits oder eben von einem klassischen Computer mit vielen Bits durchgeführt wird, wenn man nur Remotezugriff hat?

Physikalisch korrektes Rendering


Bis heute habe ich geglaubt, dass Mental Ray das Nonplusultra in Sachen Bildqualität und Realismus für 3D-Rendering bietet. Aber dann habe ich zum ersten Mal Bilder von Renderengines gesehen, die weder Raytracing, noch Radiosity verwenden, sondern auf dem Metropolis-Light- Transport-Algorithmus basieren. Einfach atemberaubend realistisch! Der MLT-Algorithmus berechnet das Verhalten von Licht physikalisch korrekt. Das heißt, dass je länger man rendert, das entstehende Bild immer mehr gegen die physikalisch korrekte Lösung konvergiert. Das macht es zum ersten Mal möglich, auch physikalische Effekte wie Dispersion (das Aufspalten weißes Lichts in Regenbogenfarben) ohne weitere Tricks mit einem 3D-Renderprogramm zu berechnen (siehe nebenstehendes Bild des freien OpenSource-Renderers LuxRender). Sogar Polarisation, der Einfluß von nahem Infrarot bzw. ultraviolettem Licht auf die Farben des sichtbaren Lichts, Doppelbrechung usw. sollen möglich sein.
Die meisten Renderer, die diesen Algorithmus verwenden, sind jedoch noch eher im Betastatus, mit Ausnahme des kommerziellen Maxwell Render (Diesen gibt es z.B. auch für Maxon Cinema 4D). Wer die beeindruckenden Beispiele dort gesehen hat und jetzt mehr wissen will, für den sind auch die folgenden Seiten gute Startpunkte:
Ob es irgendwann auch Spiele mit derartig realistische Grafik geben wird? Aber das sollte man dann vielleicht nicht mehr Spiel nennen, sondern eher "Matrix". ;-)

Update 21.09.2009:

Gigapixel-Fotographie

Während durchschnittliche Konsumerkameras inzwischen gerade bei 10 Megapixel Auflösung angelangt sind, haben findige Tüftler inzwischen schon Bilder von mehrere Gigapixel Auflösung (siehe Wikipedia hier und hier) erzeugt. Wie das geht? Es gibt zwei Verfahren:
  1. Mehrere Bilder zu einem Panorama zusammensetzen. Dies kann im Prinzip jeder Besitzer einer Digitalkamera tun (100 Bilder mit einer 10 Megapixelkamera zu einem Panorama zusammengesetzt geben bereits ein Bild mit Gigapixelauflösung). Mit diesem Verfahren hat Max Lyons bereits 2003 eines der ersten Digitalbilder mit Gigapixelauflösung erstellt. Nachteil dieses Verfahrens ist natürlich, dass die Szene sich während man die vielen Hundert Einzelaufnahmen macht natürlich möglichst nicht verändern darf. Für Aufnahmen von Bewegungen (z.B. Wellen) ist das Verfahren daher völlig ungeeignet.
  2. Die Nutzung von Analogkameras mit extrem großen Negativen, wie sie für die Spionage im zweiten Weltkrieg, aber auch für die Astronome entwickelt wurden. Da man jedoch ohne Auflösungsverlust von derartigen Negativen keine Positive erzeugen kann (es gibt einfach keine Linsen die für eine derartige Auflösung geeignet sind), digitalisiert man die so erzeugten Negative stückweise mit hochauflösenden Scannern und erzeugt so Digitalbilder mit Gigapixelauflösung. Dieses Verfahren verwenden u.a. das GigaPxl Projekt und Clifford Ross.
Die Aufnahme von solch hochauflösenden Fotos ist bereit eine Herausforderung, den nur unter günstigen athmospärischen Bedingungen kann man überhaupt eine derartige Auflösung erzielen (mehr dazu hier). Die Ausgabe dieser Fotos ist aber ebenfalls nur schwer möglich. Eines der besten Tools scheint mir in diesem Zusammenhang das auf Flash basierende Zoomify zu sein. Es wurde unter anderem von der TNO zur Darstellung ihres 2,5 GigaPixel-Fotos verwendet. Im Gegensatz zu der auf Google-Map-Technologie basierenden Lösung von xRez.com ist Zoomify wesentlich flüssiger und performanter. Flash scheint in diesem Fall doch zu etwas nütze ;-) . Allerdings dürfte die Google-Technologie wesentlich skalierbarer sein, denn schließlich dürfte das Bild der Erdoberfläche von Google Map, als ein Bild interpretiert, wahrscheinlich das höchstauflösende "Foto" überhaupt sein.