Diskussion:Quantencomputer/Archiv

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Technische Realisierbarkeit

Ich finde der Aspekt der technischen Realisierbarkeit eines wirklich leistungsfähigen Quantencomputers kommt hier etwas zu kurz. Ich habe nämlich den Verdacht, dass ein Quantencomputer, der wirklich in der Forschung oder auch z.B. in der Wetter- und Klimavorhersage eingesetzt werden könnte, nicht konstruiert werden kann, weil die technischen Hürden einfach zu groß sind. Aber ich lasse mich gerne vom Gegenteil überzeugen. Allerdings erst, wenn ein Quantencomputer für eine praktische Anwendung in Betrieb genommen wird. Vorher nicht!
(Der vorstehende Beitrag stammt von 134.93.63.60 – 7.2.2007, 12:25 (MEZ) – und wurde nachträglich unterschrieben.)

der Erste wurde eben vorgestellt, es ist also realisierbar https://t3n.de/news/ibm-praesentiert-quantencomputer-1136607/ --195.233.26.85 13:08, 9. Jan. 2019 (CET)

Kohärenz

Im Abschnitt Qubits wird Wert darauf gelegt, daß die Quantenmechanik nicht inkohärent ist. Bei orthogonalen Basiszuständen verschwindet aber der Überlagerungsterm. Soll man daraus ableiten, daß bei Wahl von orthogonalen Basiszuständen Inkohärenz eintritt?(nicht signierter Beitrag von 130.60.87.139 (Diskussion) )

Was ich an den Änderungen nicht verstehe: Hier geht es ja nicht darum, eine möglichst komplizierte Basis zu wählen. Warum soll ich eine nicht-orthogonale Basis wählen, wenn ich sie ohne Nachteile orthogonal wählen kann?--Debenben (Diskussion) 19:42, 14. Mai 2018 (CEST)

Dieser Artikel wurde vor über 13 Jahren erstellt. Kein Fortschritt?!

Ist der Quantencomputer eine ewige Zukunftstechnologie, so wie die Kernfusion zur Energieerzeugung auch seit ich Denken kann uns das "Paradies" auf Erden verspricht - für die Zukunft, die immer nur Zukunft bleibt? Mal ernsthaft, ist das nun eine Technologie, die (noch zu unseren Lebzeiten) alltagstauglich wird oder ist es Mindfuck für Theoretiker? Im Moment tendiere ich eher zu Letzterem und glaube eher noch an den Durchbruch der kommerziellen Kernfusion. --2003:74:CF65:7B38:51D3:9081:F450:F962 15:41, 25. Jun. 2018 (CEST)

Natürlich gibt es Fortschritte, alle großen Computerfirmen und einige Startups entwickeln inzwischen die Technologie (und China ist auch schon mit Milliarden-Investitionen aufgesprungen), die wie da auch schon im Artikel stand bei IBM schon 2017 bei 50 Qubit anlangte (google gibt 2018 rund 70 an); neben der Anzahl der Qubits muss aber auch die Fehlerrate, die Zeit über die ein Qubit-Zustand vorgehalten werden kann, Kontrollelektronik, Software und vieles andere verbessert werden. Der nächste große Schritt wäre der Nachweis der Quantum Supremacy, das heisst der Demonstration in einem realen Quantencomputer eines Problems, das Quantencomputer erheblich schneller als klassische Computer lösen können. Das ist noch nicht erfolgt. Laut google reichen dafür 50 Qubits und bei der tolerierbaren Fehlerquote sind sie auch in der Nähe und optimistisch. Ein weiterer Punkt ist die Skalierbarkeit, ist die erfüllt kann es sehr schnell gehen (laut google brauchen kommerzielle Quantencomputer ab 1 Million Qubits - was nicht heißen soll dass es auch für sehr viel weniger Qubits schon interessane Anwendungen gibt). Bei Microsoft arbeiten sie dabei noch theoretisch am Architekturkonzept (topologische Quantencomputer für die Fehlerkorrekturen). Das Problem für die Beurteilung ist das vieles geheimgehalten wird.--Claude J (Diskussion) 14:45, 8. Aug. 2018 (CEST)

Wie geht das mit dem Auslesen?

Laienfrage: Wie kann man mit etwas rechnen, wenn man das Ergebnis doch beim Auslesen laut Schrödingers Katzengleichnis zerstört? Klar, diese "Qbits" können 3 Zustände haben: 1, 0, und quasi beides - und somit einen Zustand mehr als bisherige Bit-Computer. Aber das mit dem Auslesen habe ich noch nicht verstanden. Mein Verständnisproblem ist, dass der Vorteil des Quantencomputers (dieser eine Zustand mehr gegenüber einem herkömmlichen binären Computer) doch durch die Determination bei der Ergebnisausgabe sich auflöst, so wie der unbestimmte Zustand der Katze sich beim Hineinschauen in die Kiste auflöst, eben determiniert wird.

"quasi beide" erhöht nicht die Zahl der Zustände von 2 auf 3, sondern die der gleichzeitigen Zustände von 1 auf 2. Hört sich auch nicht mehr an? Aber n klassische Bits haben zu einer bestimmten Zeit(!) auch nur einen von 2n Zuständen, während ein Zustand n verschränkter Qbits eine Superposition all der 2n reinen Zustände ist, mit verschiedenen Anteilen und Phasen.
Das Auslesen liefert, wenn nichts schiefgegangen ist, ein Element der Lösungsmenge. --Rainald62 (Diskussion) 02:19, 8. Aug. 2018 (CEST)

Das ganze hört sich ja ganz toll an...

Das ganze hört sich ja ganz toll an, aber ich habe leider immer noch nicht verstanden, wie so ein Computer funktionieren soll, und warum er so viel besser ist, als ein normaler Computer. Kann das nicht mal einer auch für Laien verständlich erklären?
--Morgul 16:11, 30. Mär 2005 (CEST)

Ich habe gerade nochmal den Artikelanfang gelesen und da steht es schon korrekt erklärt. Kann man das noch einfacher erklären? Hm. Blöderweise muss man grundlegende Ideen aus zwei schwierigen Gebieten kapiert haben, einerseits Quantenmechanik (verschränkter Zustand, Messung) und andererseits theoretische Informatik (wie modelliert man mathematisch Rechner und Algorithmen und analysiert diese in Bezug auf Speicherplatz- und Zeitnutzung). Was ist der Knackpunkt am Quantencomputer? In der klassischen Analyse von Rechnern und Algorithmen (Komplexitätstheorie) hat man sich auf ganz simple Modelle beschränkt, die jedoch mit mathematischer Strenge analysiert werden können. Dadurch kommt zu bestimmten Ausagen, wie dass man Primzahlen vermutlich nur mit exponentiellem Aufwand faktorisieren kann. Das mathematische Modell hinter dem Quantencomputer unterscheidet sich jedoch an einer entscheidenden Stelle: ist im klassischen Rechner pro Takt nur eine Operation möglich, so kann der Quantencomputer viele Operationen auf einmal pro Takt ausführen. Dadurch kann er mehr Arbeit wegschaffen und z.B. Primzahlen schon mit polynomiellen Aufwand faktorisieren. Ein normaler Halbleiter oder der Laser im DVD Laufwerk funktioniert auch nur auf Grund quantenmechnischer Gesetze. Was neu ist, ist das verschränkte Zustände (die die Quantenmechanik im Gegensatz zur klassischen Mechanik besitzt) im Quantencomputer genutzt werden. Ein n-Qbit kann 2^n Zustände kodieren und eine Operation drauf ist in einer Messung durchführbar. Das ist enorm viel. Gleichzeitig ist es noch unglaublich schwer, diese verschränkten Zustände für hohe n zu realisieren, erst wenn man das technisch hinkriegt, machen Quantencomputer Sinn. Momentan liegt man so bei n=7. Jedenfalls ist Programmieren auf einem Quantencomputer ziemlich schräg: Die Rechnung gelingt nur mit einer gewissen Wahrscheinlichkeit, jeder Rechenschritt muss prinzipiell umkehrbar sein (überleg mal, was das für eine Anweisung, wie x := 5 bedeutet) - alles Konsequenzen aus der Verwendung eines quantenmechanischen Systems als Prozessor auf einem quantenmechanischen Zustand als Registersatz. Hilft Dir das irgendwie weiter? --Marc van Woerkom 17:41, 1. Apr 2005 (CEST)
Kleine Anmerkung: Ein Quantenrechner kann pro Rechenschritt theoretisch unendlich viele Operationen durchführen. Das mit dem Takt ist Blödsinn, denn heutige Rechner (insb. parallele) führen pro _Takt_ bereits mehrere Operationen aus. Du denkst da wohl eher an alte Großrechner... Das Programmieren auf Quantenrechnern ist übrigens nicht so schräg, wie hier dargestellt. In Zeiten des PCP-Theorems sollte sich nun wirklich ein Jeder vom Determinismus verabschieden, denn die Klasse P ist nun wirklich nicht die Klasse, die die einzigen praktisch relevanten Probleme enthält. Und insofern sollten Approximationsalgorithmen und randomisierte Algorithmen als "normal" angesehen werden.
--80.139.250.216 21:27, 1. Nov 2005 (CET)
Danke für die Erklärungsversuche. Die Mehrprozessorkernrechner arbeiten ebenfalls parallel, aber das ist mit den Vorteilen des Quantelncomputersn anscheinend nicht zu vergleichen. --Morgul 22:21, 25. Sep. 2010 (CEST)
--> Morgul, Mehrprozessorkerne arbeiten zwar parallel, doch wenn du einen Prozess ausführst, wird jeder Teil dieses Prozesses nur von einem Prozessor ausgeführt und du kannst genau messen, wo welche Spannung herrscht. Bei einem Quantencomputer wird der gesamte Prozess vom gesamten "Baustein" durchgeführt, und führt danach zu einem Wahrscheinlichkeitsmuster (hat was mit Superpositionen zu tun). Somit wird wohl aufgrund von Überlagerungsmodellen etc berechnet, welcher Zustand am wahrscheinlichsten und somit der Richtige ist, während Messungen womöglich zur Manipulation der "Programmierung" des Bausteins durchgeführt werden. Wenn du mich fragst: Wenn die "Programmierer" solcher Systeme Umdenken, und nicht mehr probieren, mit einzelnen Zuständen zu arbeiten, kann ein Quantencomputer extrem leistungsfähig sein <-- War jetzt nur so ein Gedankenspiel! (nicht signierter Beitrag von 84.72.25.165 (Diskussion) 12:24, 21. Dez. 2010 (CET))

Verständlichkeit

Die Einleitung ist mir zu unverständlich. Ein einziger Satz über 3 Zeilen mit eingeklammerter Zusatzerklärung. Ich bin kein rekursiver Parser und würde den Satz gerne beim ersten lesen verstehen. Da kann man gerne auch drei Sätze draus machen.
Danach wird es nicht besser, ich lerne den Shor- und den Grover-Algorithmus kennen, obwohl ich eigentlich wissen will wie ein Quantencomputer funktioniert. Erfahre ich das bis hier hin? Fehlanzeige! Mir werden algorithmische Details um die Ohren gehauen. Jetzt weiß ich das es Faktorisierungsalopgrithmen sind, toll eigentlich wollte ich ja wissen was ein Quantencomputer ist. Danach wird dann endlich mal auf die QBits verwiesen, wäre doch toll wenn ich bevor Algorithmen diskutiert werden, erst mal erfahren würde wie ein Quantencomputer funktioniert.
Bitte vereinfacht das. Eclipse 22:22, 2. Dez 2005 (CET)

Ich will mal versuchen zu erklären was der Unterschied ist. Bei einem normalen Computer, werden durch bestimmte elektrische Verbindungen zwischen logischen Bausteinen die in einer definierten Abfolge ein und ausgeschaltet werden Daten verarbeitet. Bei einem Q-Computer sind die "Bausteine" quantenmechanisch verschränkt. Das bedeutet, dass durch Messung eines "Baustein", alle Anderen sofort (Einstein nannte es Spuckhafte-Fernwirkung) einen durch die Anordnung bestimmten Zustand einnehmen. Also, wird eine ganz andere Physik eingesetzt und verwendet, die eine multiple parallele Datenverarbeitung ermöglicht. Die Auswirkungen und Möglichkeiten dieser Q-Computer sind noch nicht gänzlich verstanden. Es gibt Vermutungen, dass das Gehirn auch so arbeitet und dadurch erst z.B. Bewusstsein möglich wird. Man kann sich als Laie einen Q-Computer auch so vorstellen, dass zusätzliche unsichtbare Verbindungen zwischen den Bausteinen bestehen, die kein Mensch richtig versteht, die den Zustand der Baugruppen ändern können. Baut man verschränkte Baugruppen geschickt zusammen, hat man einen Q-Computer. Ist natürlich alles nicht 100% Richtig erklärt trifft die Sache aber ganz gut finde ich.
(Der vorstehende Beitrag stammt von 195.226.181.7 – 13.12.2005, 19:43 (MEZ) – und wurde nachträglich unterschrieben.)
Das war jetzt verständlicher und auf das wesentliche beschränkt. Wenn es sachlich richtig ist es doch bitte ein. Eclipse 05:41, 18. Dez 2005 (CET)

Ich habe folgendes hinzugefügt: "Im klassischen Computer sind Bits entweder 0 oder 1. Im Quantencomputer sind die bits Null und Eins gleichzeitig. bei einem Quanten-Rechenvorgang werden dabei alle möglichen Eingabewerte gleichzeitig verrechnet." Das rettet nicht den ganzen Artikel, sollte aber leichter verständlich sein.
(Der vorstehende Beitrag stammt von 195.3.113.171 – 1.3.2007, 20:22 (MEZ) – und wurde nachträglich unterschrieben.)

Hallo, habe heute folgende Meldung gelesen:

.. und finde die dortige Erklärung (trotz des Fremdwortes) mit der sogenannten Interferenz sehr gut und (einigermaßen) verständlich (wenn auch noch nicht wirklich allgemeinverständlich – im Sinne derer, die nicht vom Fach sind). Womöglich kann das ja mal jemand in die Abhandlung nebenan (oder etwas besser dort) einarbeiten, ..also der Punkt (ein ganzer Satz) zur Interferenz (oder wenn es dafür ein besseres – deutsches – Wort gibt) sollte wenigstens einmal genannt werden. MfG, 92.225.113.154 14:02, 28. Nov. 2014 (CET)

Missverständnis Quantencomputer?

Ich (ohne Login) schließe mich dem Initiator von "Simulation von Quantencomputern?" ebenfalls an. Ich halte die Aussage, dass ein Von-Neumann-System einen Quantencomputer *simulieren* kann für grob missverständlich, insbesondere den Rückbezug. Ein klassischer Computer kann das nämlich nur stark fehlerbehaftet (Stichwort: Numerik). Ein Von-Neumann-System kann ja nicht einmal einen Analogrechner exakt simulieren (er kann nur rationale Zahlen darstellen, aber keine reellen und ganz besonders nicht transzedente Zahlen).

Also um es mal klarer auszudrücken: Ein Quantencomputer kann einen klassischen Computer emulieren (das ist: Exakt simulieren, vermutlich lässt sich damit sogar die Geschwindigkeit steigern, d. h. die Emulation ist schneller als das Original), während ein klassischer Computer das mit einem Quantencomputer nicht kann (er kann das nicht, weil das Verhalten von Quanten nicht exakt simulierbar ist. Könnte man das, wäre die Quantentheorie beerdigt).

Hier wurde zudem behauptet, dass ein klassischer Computer mit unendlich viel Speicher und unendlich viel Zeit das Ergebnis eines Quantencomputers beliebig annähern kann (was IMHO eine ziemlich heftige Dehnung des Begriffs "Simulation" darstellt, das mit der Zeit geht in Ordnung, aber das mit dem Speicher erscheint mir ziemlich seltsam). IMHO ist diese Behauptung außerdem falsch. Wie kann bitte ein klassischer Computer ein Problem berechnen, zu dem man den Quantencomputer ausschalten muss (oder genauer, man schaltet den Quantencomputer unendlich oft nicht ein, das kann man aber in fast beliebig kurzer Zeit tun). IMHO muss man den klassischen Computer zur Simulation des Problems ebenfalls ausschalten. Und dann berechnet er exakt gar nix. Man kommt also genau bis zu dem Punkt an dem man den Stecker zieht, und danach kommt die Berechnung nicht mehr weiter, es gibt also keine beliebig bessere Näherung des Ergebnisses mehr. Zu dem etwas wunderlichen Thema dass ein Quantencomputer auch dann etwas berechnet wenn man ihn nicht einschaltet siehe dort: www.wissenschaft.de/wissenschaft/news/154052

Es gibt noch ein weiteres Problem, das der Quantencomputer lösen kann, aber ein Von-Neumann-Computer wohl niemals emulieren oder auch nur hinreichend simulieren kann: Ein Quantencomputer kann sich verschieden verhalten, je nachdem ob man ihn ansieht oder nicht. Wie bitte kann man das mit einem Von-Neumann-System auch nur in irgendeiner Weise simulieren? Um es mal genauer zu beschreiben:

Ich nehme einen Quantencomputer, lasse ihn etwas berechnen indem ich ihn angucke oder nicht, und danach nehme ich einen Quantenradierer und radiere ein bestimmtes Nachgucken aus. Der Quantenradierer hat nichts mit dem Quantencomputer zu tun! Ich kann das also nur simulieren, indem ich den Quantenradierer ebenfalls simuliere. Bin ich hier alleine dass nur mir das "ziemlich strange" vorkommt, wenn man bei einer "Simulation" fordert, dass auch Dinge mitsimuliert werden, die mit dem eigentlich simulierten Teil nichts zu tun haben? (Andersrum: Ich nehme einen Aldi-PC und simuliere den auf einem hinreichend leistungsfähigen Quantencomputer. An den Quantencomputer halte ich dann einen Magneten, und der Quantencomputer wird - wenn die Simulation korrekt ist - sich ebenso verhalten wie der Aldi-PC, nämlich den Inhalt der simulierten Festplatte verlieren. Ich brauche den Magneten dazu nicht simulieren. Warum geht das? Weil ein Quantensystem das kann! Es kann es deshalb, weil es auch darauf reagieren kann wenn man es ansieht oder nicht. Quanten können das. Von-Neumann-Systeme eben nicht.)

Wer es immer noch nicht wahrhaben will: Quantencomputer können Analogcomputer exakt emulieren, denn es ist für einen Quantencomputer gar kein Problem, das Input-Signal zu verarbeiten (den imaginären Teil einfach 0 setzen). Jeder wird hier hoffentlich zustimmen, dass Analogcomputer keine Turingmaschinen darstellen. Ich kann aber leicht einen analogen Computer definieren, den ein digitaler Computer, egal wie genau er rechnet, niemals korrekt annähern kann. Einfach so etwas wie SIGN(A+B) definieren. Wenn ich nun Signal A und Signal -A einspeise, liefert der Analogrechner 0. Egal wie genau man nun mit einer Simulation rechnet, das Ergebnis kann nicht konvergieren, weil die numerischen Verfahren zur Näherung von A+B nicht exakt genug funktionieren. Jetzt nehmen wir den Quantencomputer, und der wird das Ergebnis genauso korrekt ausspucken wie der analoge.

Also, ich kann damit leben, wenn man sagt: "Quantencomputer, wie man sie heute herstellen kann, sind zu einer Turingmaschine äquivalent." Gut, nett. Aber dann bringt uns das nicht wirklich weiter (schön, wir können einige harte Probleme etwas besser lösen, aber das war's auch schon). Aber das sind IMHO ziemlich beschränkte Quantencomputer, die nur eine "Nullmenge" der eigentlich interessanten quantenmechanischen Effekte verwenden.

Ich kann auch damit leben, wenn jemand sagt: "Quantencomputer, die nach dem Vielweltenansatz arbeiten, können von einer Von-Neumann-Maschine simuliert werden." Das gilt dann aber nicht umgekehrt (ich brauche keinen Vielweltenansatz um mit einem Quantencomputer einen Von-Neumann-Rechner zu simulieren. Man kann das einsehen indem man den Von-Neumann-Rechner selber hernimmt. Er besteht aus Quanten und ist somit ein - extrem beschränkter - Quantencomputer).

Evtl. aber liegt mein Unverständnis an einer einfachen Kleinigkeit, also folgender Frage:

Was ist ein Quantencomputer?

Hört sich vielleicht etwas seltsam an, aber genau diese Frage hat der Artikel hier nicht geklärt. Es steht ein netter Satz am Anfang des Wikipedia-Artikels, aber der löst eigentlich weit mehr Fragen aus als er beantwortet. Zu meiner Frage eine Erläuterung:

Man nehme einen Topf mit hinreichend vielen elektronischen Bauteilen. Wie muss ich die anordnen, damit ein klassischer Computer entsteht? Also mir ist ziemlich klar wie das aussehen muss!

Anhand der vorhandenen Beschreibung von diesen Maschinen (Turingmaschine etc.) dürfte der Vorgang auch von Leuten nachvollzogen werden können, die vorher nicht wussten, wie ein solcher Rechner aussieht. Aber fragen wir nun dasselbe beim Quantencomputer:

Wie muss ich die Quanten anordnen, dass ein Quantencomputer entsteht?

Und genau hier scheint einiges um Unklaren zu liegen, da IMHO die Ansätze, wie man Quantencomputer konkret baut, derzeit alles andere als gefestigt sind. Oder irre ich mich da? Gibt es ein klares Bauschema für Quantencomputer? Wenn ja, dann bitte in den Artikel aufnehmen!

Ich für meinen Teil bestehe darauf, dass ich auf das Ergebnis eines Quantencomputers einen Quantenradierer ansetzen können muss, damit das Gerät als Quantencomputer gelten darf. Ansonsten ist es nur ein quantenmechanische Erweitung eines klassischen Computers und sollte den Namen "Quantencomputer" nicht tragen dürfen. Siehe auch: www.sciam.com/article.cfm?chanID=sa006&colID=1&articleID=DD39218F-E7F2-99DF-39D45DA3DD2602A1

Ja, ich gebe zu, dass es möglich ist, dass ich sehr viel sehr falsch verstanden habe. Der Artikel steht aber im krassen Gegensatz zu dem, was ich zu wissen glaube. Hier steht vieles und interessantes. Aber genau die Grundlagen, die mich darüber aufklären könnten, wo sich denn der Fehler befindet, in meinem Denkansatz was ein Quantencomputer sei, dazu findet sich nichts im Text. Ich kann das übrigens nicht verbessern, denn ich weiß genau darüber nicht bescheid und wüsste auch nicht, wo ich mich darüber informieren kann. Ich gebe auch gerne zu, dass meine Lücken im Wissen um Quantencomputern groß genug sind, Multiversen durchzutreiben. Trotzdem habe ich aus den mir zugänglichen Informationen eine fundamental andere Vorstellung davon, was ein Quantencomputer ist. Komischerweise steht meine Vorstellung mit allen wissenschaftlichen Erkenntnissen, die ich bisher lesen konnte, im Einklang. Einige davon haben Fehlvorstellungen von meiner Seite beseitigt, und dabei einen ziemlichen Aha-Effekt gebracht (z. B. scottaaronson.com/blog/?p=208).

Um es nochmals zu konkretisieren hier der erste Satz aus diesem Wikipedia-Artikel:

"Ein Quantencomputer bzw. Quantenrechner ist ein Computer, der die Gesetze der Quantenmechanik ausnutzt, um bestimmte Operationen effizienter durchzuführen als konventionelle Computer."

Klickt man zum Verständnis auf das erste "Computer" wird man eher verwirrter als schlauer. Laut dem Link dort arbeitet ein Computer entweder mit digitalen oder analogen Eingangssignalen. Was ist aber bitte mit den Geräten, die Dinge außerhalb digitaler oder analoger Eingangssignale verarbeiten, wie z. B. "ich werde durch jemanden angesehen der mit dem Ergebnis etwas zu tun hat", "ich wurde unendlich oft nicht eingeschaltet" oder "Jemand hat einen Quantenradierer verwendet"? All solche Geräte tauchen in der Fachwelt unter dem Stichwort "Quantencomputer" auf, aber würden laut dieser Definition jetzt genau genommen nicht darunter fallen.

Das soll jetzt bitte keine Kritik sein. Ich bin für die Wikipedia dankbar! Nur irgendwie halte ich einige Informationen in dem Artikel - um das Wort falsch nicht zu gebrauchen - als dazu geeignet, die Verwirrung des Lesers eher zu steigern als zu verringern. Und genau genommen erfüllt jeder Aldi-PC die Eingangsbedingung:

  • Er ist zweifellos ein Computer.
  • Er nutzt - wie jedes physikalische Ding - die Gesetze der Quantenmechanik, alles andere wäre schon sehr verwunderlich
  • Es gibt eine sehr wohldefinierte Operation die dieser wesentlich effizienter durchführt als jeder andere konventionelle Computer: Die Taschen der Herren Aldi zu füllen.

Habe ich also jetzt einen Quantencomputer unter meinem Schreibtisch oder sagt der Satz - logisch gesehen - wirklich nichts aus?

Oder um die Haare noch weiter zu spalten, hier ein Beispiel für einen "Quantencomputer" den es an so gut wie jeder Tankstelle gibt:

  • Er verarbeitet nur ein einziges digitales Eingangssignal und kennt nur ein einziges Ausgangssignal, ist also ein ziemlich beschränkter Computer.
  • Er nutzt einen quantenmechanischen Effekt aus, den man erst seit wenigen Jahren dafür verwenden kann.
  • Und er löst diese Aufgabe wesentlich effizienter als jeder andere konventionelle Computer.

Wovon ich spreche? Von einer LED-Taschenlampe. Davon gibt es sogar welche, die haben neben "aus" und "an" auch noch "blinken" als Zustand. Und wer das als "zu primitiv" ansieht, der Frage sich bitte mal, welch eine Sensation die "Rechenleistung" einer solchen Taschenlampe um 1900 gewesen wäre.

-Tino, 91.64.104.56 03:32, 4. Jul. 2007 (CEST)

Quantenprozessor vorgestellt

Ich kenne mich mit dem Thema zu wenig aus, als dass ich diese Meldung bewerten könnte. Kann man das verwenden? http://www.heise.de/newsticker/meldung/85299 --Mifrank 17:06, 14. Feb. 2007 (CET)

Tut mir Leid, wenn ich hier die Euphoriebremse spielen muss, aber entweder ist diese Meldung eine Ente, oder das Unternehmen lügt, oder der Autor dieses Berichts weiß nicht, wovon er redet und hat was falsch verstanden.
Soweit ich weiß ist man noch Jahrzehnte von der technischen Realisierung eines Quantenprozessors entfernt. Die Behauptung dieser Prozessor habe 16 Qubits ist haarsträubend! Auf der ganzen Welt gibt es höchsten 10 Forschungsgruppen, die ein Qubit erzeugen können. Weltweit dürfte es höchstens 100 Qubits geben! Qubits gibt es ja schließlich gerade mal seit 2005, wie man in diesem Artikel nachlesen kann.
Außerdem selbst wenn es heute schon möglich wäre einen solchen Quantenprozessor zu bauchen, dann würde das höchstens irgendeine Forschungsgruppe im Labor machen. Ein Unternehmen würde sich niemals damit befassen, denn es hat heutzutage noch gar keinen Sinn, einen solchen Prozessor zu bauen. Neben dem Quantenprozessor brauchst du ja auch die entsprechenden Quantenalgorhithmen, von denen gibt es momentan jedoch höchstens eine Handvoll, nicht genug um damit irgendetwas Sinnvolles anzustellen.
Gruß, René, 17. Feb 2007, 21.17
Ja, ok. Das wollte ich im Grunde genommen hören. Hätte mich auch sehr überrascht. Wenn du das jetzt noch den Leuten von Wikinews erklären würdest: Weltweit erster Quantenprozessor vorgestellt --Mifrank 11:14, 19. Feb. 2007 (CET)
Die Sache ist nicht ganz so einfach. Obwohl das Gerät laut NZZ nicht bei der Demonstration anwesend war (über Netz mit Terminal bedienbar), löste es ein Sudoku-Rätsel und eine Terminplan-Aufgabe. Eine 512 Qubit Version wurde in einem Jahr angekündigt. Wenn es ein Fake war, dann aber einer mit viel Chuzpe! --Ayacop 11:18, 22. Feb. 2007 (CET)
Ein kleiner Einwand: Unter den Quantenalgorithmen gibt es durchaus sinnvolle wie den Shor-Algorithmus. Allerdings bräuchte man für sinnvolle Anwendungen ein Register aus mehr als 16 Qubits. --Stefan Birkner 11:50, 19. Feb. 2007 (CET)

Also noch mal bezugnehmend auf diese Meldung: Soweit ich weiß, kann man dieses Gerät nicht als Quantencomputer bezeichnen (auch hat das Unternehmen, glaube ich, das so nicht behauptet). Wenn ich die Beschreibung richtig verstanden habe, dann handelt es sich hierbei leidiglich um einen Prozessor der Spins bei tiefer Temperatur benutzt. Er benutzt keine Qubits, sondern nur normale Bits.
Soweit ich das mitbekommen habe, wurde diese "Erfolgsmeldung" von der Fachliteratur auch vollständig irgnoriert. Vielleicht sollte mal jemand genauer recherchieren, denn möglicherweise handelt es sicher hierbei um eine falsche Information.
Gruß, Rene 17. Mai 2007, 22.01

Dass man noch "Jahrzehnte" von der Realisierung eies Quantencomputers entfernt ist, wage ich stark zu bezweifeln. Ein Jahrzehnt vielleicht, bis dahin ist das Zeug dann aber auch marktreif und steht in jedem Wohnzimmer. 10 Jahre sind in der Halbleiterei eine absolute Ewigkeit. Schaut euch doch mal die aktuellen Integrationsdichten an. Bald werden die Transistoren von selbst so klein, dass die Gesetze der Quantenmechanik für ihre Funktion relevant werden und schon hat man einen "Quantencomputer", ob man will oder nicht. 217.94.251.208 18:35, 20. Jul. 2010 (CEST)

Auslesen des Ergebnisses

Im Text steht, dass ein Quantencomputer zwar in einem Schritt alle denkbaren Eingabemuster verarbeiten kann, aber das Problem darin besteht, dass man nur ein zufaelliges(!) Ergebnis auslesen kann. Weiter steht dort, dass der Algorithmus von Shor das Problem loest in dem er die Quantenberechnung nur als Zwischenergebnis verwendet.
Was ich nicht verstehe ist, irgendwann muss ich das Ergebnis trotzdem auslesen. Also verschiebe ich das Problem nur, loese es aber nicht. Warum erhalte ich bei Shor dann nicht mehr ein Zufaelliges Ergebnis sondern das, was ich gerne haben moechte? -- sparti 00:54, 17. Feb. 2007 (CET)

Auch bei Shor bekommst Du nur zu einer gewissen Wahrscheinlichkeit das gewünschte Ergebnis. Diese Wahrscheinlichkeit kann man allerdings stark erhöhen, indem man "ungewünschte" Ergebnisse durch Interferenz zur Auslöschung bringt. Das Geheimnis liegt in der Fouriertransformation, die Shor auf den Registern ausführt. 217.94.251.208 18:49, 20. Jul. 2010 (CEST)

Überarbeiten, 22.2.2007

Tut mir leid, aber der Artikel ist derzeit sehr unverständlich. Selbst ich als Akademiker verstehe den Abschnitt "Prinzip" nicht im geringsten. Der Artikel fällt also beim OMA-Test gnadenlos durch. Viellciht erbarmt sich einer der Experten, die Allgemeinverständlichkeit zu verbessern. Danke! --85.180.101.49 00:28, 22. Feb. 2007 (CET)

Man bräuchte also eine wirklich anschauliche Vorstellung des Prozesses, ähnlich der Turing-Maschine. Wäre es nicht besser, statt von Superposition zu sprechen, die Viele-Welten-Interpretation der Quantenmechanik anzuwenden und zu sagen:
Der Rechner erzeugt so viele Welten, wie das Problem an Lösungsmöglichkeiten hat, und aufgrund seiner speziellen Eigenschaften existiert der Rechner in allen diesen Welten, dann passiert balblabla etc. und daher ist es möglich, Aufgaben dieser und jener Art effizienter zu lösen als etc.?
P.S. Im Übrigen halte ich seit kurzem jede IP, die sich nicht einloggt, für einen faulen Akademiker, der nur Qualität fordern, anstatt sie selber bringen kann. --Ayacop 11:33, 22. Feb. 2007 (CET)
So, habe den vorhandenen Text mal etwas gruppiert und geglättet; auch eine etwas enzyklopädischere Sprache kann nicht schaden; und die Sache mit der Dekohärenz kurz angeschnitten. Immer noch nicht ganz OMA-tauglich vll, aber näher dran ;-) - Wer die Viele-Welten-Geschichte da nachtragen mag, bitte. --Bernd vdB 13:58, 20. Mär. 2007 (CET)
.. und das Überarbeiten-Kennz. entfernt, Einverständnis unterstellt. --Bernd vdB 14:10, 20. Mär. 2007 (CET)

Was soll ich mit dieser Aussage anfangen

Was soll ich mit dieser Aussage anfangen: "Dem Quantencomputer verwandt ist der Quanten-Simulator, ein spezieller Quantencomputer, der für die Simulation bestimmter anderer Quantensysteme optimiert ist." --- Dem Quantencomputer ist also sogar - man staune - ein spezieller Quantencomputer verwandt". --888344

Die Verwandschaft ist analog zur Verwandschaft zwischen klassischem Computer, also sagen wir PC, auf der einen Seite, und programmierbaren Taschenrechnern, Spielekonsolen, Sprachcomputern... auf der anderen Seite zu sehen. Der eine kann eigentlich alles (man spricht auch vom universellen Quantencomputer), der andere kann nur ein paar sehr spezielle Dinge, die aber richtig gut, und ist wesentlich einfacher zu bauen und zu bedienen... --Pyrrhus ;-) 15:36, 20. Okt. 2007 (CEST)

Überarbeiten

Leider wird in der Einleitung nicht gesagt, ob es Quantencomputer überhaupt gibt, bzw. wie verbreitet sie sind, und wie der Stand der Technik ist. Das sollte in der Einleitung jeweils in einem Satz erwähnt werden. --qwqch 13:56, 25. Sep. 2007 (CEST)

Neue Einleitung

Ich finde die Gegenüberstellung QC <-> elektrische Schaltung sehr irreführend. Ein QC ist zunächst mal ein Konzept davon, wie man Dinge berechnet, und könnte als solcher z.B. einer Turing-Maschine gegenübergestellt werden. Und die muss bekanntlich auch nicht mit Mikroprozessoren realisiert werden. Als zweiten Schritt kann man dann sagen, welche Ideen für eine Realisierung es gibt, das steht ja im Artikel unter dem vielleicht etwas unglücklichen Abschnitt Forschung schon größtenteils drin. Keine dieser Realiserungen kommt übrigens ohne enorme Mengen analoger und digitaler klassischer Elektronik aus... Möchte das jetzt nicht auf eigene Faust wieder rückgängig machen. Kommentare willkommen!!! --Pyrrhus ;-) 15:47, 20. Okt. 2007 (CEST)

Ankündigung: Überarbeitung

Hallo! So wie ich in den nächsten Tagen Zeit finde, werde ich mal eine ganze Reihe Überarbeitungen vornehmen:

  • Unter "Prinzip" wird sofort mit einem Vergleich der Mächtigkeit von klassischem und Quantencomputer angestellt, anstatt überhaupt auf das Prinzip einzugehen. Das ist unschön gelöst.
  • Im Abschnitt Qubits wird auch einfach nur verglichen mit klassischen Bits, ohne auf weitere Besonderheiten einzugehen
  • Quantum Gates fehlen völlig.
  • Die 5 Kriterien von David DiVincenco fehlen!
  • Ein eigener Unterabschnitt, der die wichtigsten Resultate der theoretischen Informatik für Quantencomputer erläutert, fehlt ebenfalls.

Das sind die Dinge, die imho ergänzt werden müssen und mit denen ich nach und nach aufräumen werde ;-)

Kommentare sind allerherzlichst erbeten. --Prometeus 14:39, 9. Nov. 2007 (CET)

Was mich ein wenig stört, sind Wertungen wie ...von einer tatsächlichen Anwendung ist man allerdings noch weit entfernt. Es sollten lieber nur Fakten beschrieben werden oder zumindest kokretisiert werden, was das in Jahren heißt. --BangertNo 16:35, 9. Nov. 2007 (CET)
Da hast du natürlich Recht. Ich hätte nun geplant, nach eine Beschreibung der allgemeinen Konzepte (Qubit, Quantum Gates) auf physikalische Realisierungen einzugehen. An dieser Stelle würde ich dann genauer darauf eingehen, wo die Schwierigkeiten überhaupt liegen. Die Einleitung selbst soll ja nur kurz das Wichtigste umreißen, daher denke ich, dass die allgemeine Aussage, dass noch viel zu tun ist, reichen sollte. Was das in Jahren heißt, kann keiner so genau sagen, fürchte ich... --Prometeus 17:53, 9. Nov. 2007 (CET)
Was das in Jahren heißt, kann heute kein Mensch seriös vorhersagen. Das ist genau das, was sehr weit weg aussagt. --Pyrrhus ;-) 01:59, 23. Nov. 2007 (CET)
@ --Prometeus : Übrigens Glückwunsch zu deinen Umarbeitungen, der ARtikel ist schon viel lesbarer geworden! Ein Problem ist noch der Quantenparallelismus, der mehrfach auftaucht, und in einem Teil wird als widersprüchlich bezeichnet, was im anderen Teil als Erklärung angeboten wird. Hast DU dazu vielleicht auch noch eine Idee? --Pyrrhus ;-) 02:14, 23. Nov. 2007 (CET)
Leider hatte ich aus akutem Zeitmangel (musste ein Seminar über Quantencomputer vorbereiten...) den Artikel in einer Art Schwebezustand gelassen. Der Abschnitt "Prinzip" aus der alten Version sollte so nach und nach verschwinden, ebenso der alte Abschnitt "Qubit". Das werde ich in kürze in Angriff nehmen. --Prometeus 09:15, 24. Nov. 2007 (CET)

Mir fällt außerdem auf, dass die Weblinks erstens recht viele sind und dann auch nicht das Paradigma "nur vom feinsten" erfüllen. Ich werde sie mir mal im einzelnen vornehmen und dann wohlüberlegt und wohlbegründet (hoffentlich...) die überflüssigen entfernen. Auch die Literaturliste entspricht noch nicht ganz dem wünschenswerten Stand. --Prometeus 19:43, 30. Nov. 2007 (CET)

Forschung (alte Version)

Ich lagere hier mal die alte Version des Abschnitts Forschung aus. Diesem Abschnitt fehlen Quellenangaben, ferner gibt es jede Menge eher nach Science Fiction klingende Abschnitte, was bereits dazu geführt hatte, dass sich der Artikel einen Löschantrag und die Kategorie Science Fiction einfing. Ich versuche, den Abschnitt mit neutralem Standpunkt und durch Quellen gesichert neu zu schreiben. --Prometeus 14:38, 5. Dez. 2007 (CET)

Quantencomputer mit einer sehr geringen Anzahl Qubits sind bereits realisiert worden und haben z. B. den Shor-Algorithmus erfolgreich ausgeführt (hierbei wurde die Zahl 15 in ihre Primfaktoren 3 und 5 zerlegt).

Im November 2005 gelang es Prof. Rainer Blatt am Institut für Experimentalphysik der Universität Innsbruck erstmals, ein QuByte zu erzeugen. Die Verschränkung aller acht Qubits musste durch 650.000 Messungen nachgewiesen werden und dauerte 10 Stunden.

Die kanadische Firma D-Wave Systems hat in Kalifornien am 14. Februar 2007 nach eigenen Angaben den ersten Quantenprozessor mit 16 Qubits vorgestellt.<ref>Wolfgang Richter: Rechenwunder, bitte warten, in: Financial Times Deutschland vom 14. Februar 2007.</ref> Bei der Vorstellung wurde ein Sudoku-Rätsel gelöst und ein Terminplan erstellt. Eine 512-Qubit Version soll in einem Jahr vorliegen. Das Gerät mit dem Namen Orion war bei der Vorstellung über einen vernetzten Monitor erreichbar, also selbst nicht anwesend. Es ist zweifelhaft, ob es sich bei dem vorgestellten System tatsächlich um einen QC gehandelt hat. Im Vorfeld angekündigte wissenschaftliche Veröffentlichungen seitens D-Wave Systems stehen noch aus. Die Firma hat auch seit der angeblichen Präsentation keine weiteren Pressemeldungen mehr herausgegeben.

Von einem Quantencomputer mit einer großen Anzahl Qubits ist man aber noch weit entfernt. Hauptprobleme beim Bau von Quantencomputern zur Lösung komplexer Probleme sind die Dekohärenz, die den Quantenzustand durch Kopplung an die Umgebung stört, sowie die Skalierbarkeit, also die Frage, wie man ein System mit einer großen Zahl von Qubits realisieren kann. Einzelne Qubits wurden bereits mit einer Vielzahl verschiedener Technologien realisiert, u. a. mit Ionenfallen, Kernspinresonanz, Supraleiter-Strukturen (Josephson-Kontakte oder SQUIDs), einzelnen Photonen oder Quantenpunkten. Es ist noch nicht abzusehen, welche dieser Technologien sich letztendlich durchsetzen wird.

Eine weitere Art, den Quantencomputer weniger fehleranfällig zu machen, wäre der topologische Quantencomputer, welcher mit Hilfe von mit Anyonen gebildeten Quantenknoten arbeiten soll. Daran arbeitet z.B. die Firma Microsoft in ihrem Project Q.

Feed-Forward macht Quantencomputer deterministisch.

Das Problem der Zufälligkeit kann elegant umgangen werden indem man schnell genug die Art der Messung des nächsten Photons so anpasst, dass der Fehler kompensiert wird (Error Correction). Man adaptiert dadurch sozusagen „in Echt-Zeit“ die Software des Computers; das Problem der Zufälligkeit wird ausgeschaltet. Diese schnelle Adaptierung der späteren Messungen erfordert so genanntes „aktives Feed-Forward“ (Vorwärtskopplung), das natürlich aufgrund der Geschwindigkeit der Photonen sehr schnell sein muss. Dies haben Anton Zeilinger und sein Wiener Quantencomputer-Team entwickelt.

Nicht zu verwechseln mit Quantencomputern ist die Quantenschlüsselverteilung, bzw. Quantenkryptografie.

Änderungen zur Forschung

Also, ich habe im Abschnitt Forschung ja ein wenig die Axt im Walde gespielt. Damit wollte ich niemanden auf den Schlips treten, aber folgendes möchte ich doch sagen:

Bisher hatte kein einziger Absatz eine vernünftige Quellenangabe. Zu den Anyonen beispielsweise findet sich auf die Schnelle zur Wischi-Waschi-Blablub. Ich hätte da schon gerne ein Paper aus Nature, Science oder ähnlichem. Getreu der Maxime Wikipedia:Belege, dass die Bringschuld bei dem liegt, der eine Aussage im Artikel haben will, habe ich diesen Abschnitt daher gelöscht.

Zu der Firma D-Wave Systems findet man zwar tatsächlich Quellen (wie deren eigene Homepage), aber eine Google-Suche erweckt bei mir den Anschein, dass es sich hier mindestens um pseudowissenschaftliche Naivität, schlimmstenfalls sogar um Betrug handelt. Jedenfalls hat die Firma auf ihren angeblich 16-bit Quantencomputer noch einen 28-bit Computer draufgesetzt, ein wissenschaftlich glaubwürdiger Nachweis, dass da tatsächlich ein Quantencomputer rechnet, steht allerdings aus, ferner suggeriert die Homepage der Firma fälschlicherweise, dass ein Quantencomputer effizient Probleme aus NP lösen könnte, wie das Traveling-Salesman-Problem, was (bis heute jedenfalls) schlichtweg falsch ist.

Nun ja, Probleme aus NP effizient zu lösen, ist im allgemeinen kein Problem, da P ja auch in NP liegt ;-) Aber klar, NP-vollständige Probleme sind wohl wahrscheinlich (wurde das schon nachgewisen?) auch mit Quantencomputern nicht effizient berechenbar. Jedoch gibt es einige Probleme außerhalb Ps, welche von Quantencomputern effizient berechnet werden könnten (Problem von Deutsch-Jozsa z.B.). Abgesehen von diesen Spitzfindigkeiten, ist D-Wave vielleicht sehr umstritten, aber vielleicht gerade deswegen nennenswert, oder? Sollte dann natürlich auch entsprechend darestellt werden. --Wuschelbum 21:11, 5. Dez. 2007 (CET)
Hallo. Die Frage, ob ist noch nicht entschieden meiens Wissens. Denn wäre BQP echte Teilmenge von NP, dann wäre auch P eine echte Teilmenge von NP, also . Davon hätten wir sicherlich gehört... Was D-Wave angeht hast du vielleicht Recht, aber dann bräuchte man auch zitierbare Quellen, die das als Humbug entlarven. Ich hatte beim Googeln erst mal diesen Blog-Beitrag eines Wissenschaftelrs gefunden. Nun bezweifle ich aber, dass die restliche akademische Welt ihre Zeit damit vertut, Paper darüber zu schreiben, dass eine Firma etwas nicht geschafft hat, von dem sie behauptet, es geschafft zu haben. In der Bringschuld ist ja eher derjenige, der etwas von sich behauptet... --Prometeus 23:43, 5. Dez. 2007 (CET)
Hallo. Ok, sehe ich ein. Es ist halt die Frage, ob Wikipedia die Wissenschaftlichkeit eines Fachjournals erfüllen soll oder nicht. IMHO ist es als Enzyklopädie auch dafür da, über Dinge aufzuklären, die nicht in Papern diskutiert wurden. Das heißt ich würde nicht unbedingt meinen, dass wir die Behauptungen von D-Wave be- oder widerlegen müssen, allein schon das Aufsehen in den Fachmedien (bspsw. bei heise, wo D-Wave das mit dem TSP auch relativiert), welches sie erzeugt haben, und ihre Umstrittenheit reicht für mich für eine Erwähnung (ist allerdings Ansichtssache, klar). Dazu kann man dann schreiben, was sie behaupten und dass viele Wissenschaftler Zweifel haben, weil eben nichts bewiesen ist.--Wuschelbum 03:16, 6. Dez. 2007 (CET)

Um es etwas schärfer zu formulieren: In diesem Artikel der Firma D-Wave Systems Platz einzuräumen wäre so, als würde man in einem Artikel über das Raumfahrtprogramm der NASA etwas über den Warp-Antrieb schreiben (vgl. auch http://scottaaronson.com/blog/?p=225 ).

Hallo. Klar, in irgend einer Weise sollte man evtl. doch darauf eingehen. Mein Problem mit dem Teil über D-Wave war, dass die einzige Quellenangabe dazu zu einem kostenpflichtigen Artikel in der Financial Times führte. Und Google-Suche ergibt, dass viele Medien recht unkritisch die euphorischen Meldungen übernommen haben. In der Quantenwelt tummeln sich leider viele Wichtigtuer und darum lässt sich ein häufiges Auftreten in Medien eben nicht mit Seriösität gleichsetzen. Ich werde mal sehen, wie man das alles gut einarbeiten kann. Auf jeden Fall Danke ich dir für deine konstruktiven Beiträge. --Prometeus 08:46, 6. Dez. 2007 (CET)

Und nun eine Bitte: Wer auch immer noch mehr bahnbrechende Erfolge auf dem Gebiet der Quantencomputer hinzufügen möchte, mag dies tun, aber mit vernünftigen(!) Quellen. Internetseiten der Firmen selbst zählen dabei nicht als vernünftig, Nachrichten in Zeitschriften, die nicht vom Fach sind ebensowenig.

Es ist nun einmal leider so, dass die Quantenmechanik von einer Horde ambitionierter Schaumschläger umsäumt wird....

Gruß, --Prometeus 15:57, 5. Dez. 2007 (CET)

Ich weiß auch nicht letztgültig, was von D-Wave zu halten ist. Und sicher ist vieles, was als Erfolg gemeldet wird, extremst aufgebauscht. Trotzdem bin ich der Meinung, dass D-Wave hier wichtig ist, aus dem einfachen Grund, dass viele Leute den Artikel deshalb anschauen, weil sie irgendeine populärwissenschaftliche Halbheit gelesen haben und jetzt mehr wissen wollen. Und genau das zu unterstützen ist m.E. auch der ANspruch einer Enzyklopädie. Und aus demselben Grund gehört der Warp-Antrieb auch nicht zu NASA, aber unter Raumschiff würde er mich keinesfalls stören!

Zuletzt eine Bitte @ Prometeus: Dein bisheriges Engagement für den Artikel in allen Ehren, aber die Regeln, was da reingehört und was nicht und warum (nicht), die machen immer noch wir alle und nicht du allein. --Pyrrhus ;-) 21:27, 12. Jan. 2008 (CET)

Lieber Pyrrhus, ich habe ja auch nicht per se etwas gegen eine Erwähnung von D-Wave. Das Problem bisher war aber, dass die einzige genannte Quelle auf einen kostenpflichtigen Artikel einer Wirtschaftszeitung verwies. Das ist IMHO kein ausreichender Beleg. Ich will sehen, ob ich Zeit und Nerv finde, D-Wave Systems in angemessener Weise einzubauen. --Prometeus 12:37, 13. Jan. 2008 (CET)

Auf Youtube sieht man ein Video mit einem Vortrag über Quantencomputern (GoogleTech) und über die Quantencomputer von D-Wave. Und wenn Google sich mit D-Wave auseinandersetzt, dann will das was heissen. Ihr Computer wird auch erklärt, er basiert auf Leiterplatinen, wie man sie bei konventionellen Computern kennt. Allerdings mit supraleitenden Magnetbahnen, oder was auch immer... http://www.youtube.com/watch?v=vMvC-wv1ayo&feature=related Leider bin ich zu dumm um die Formeln. und die Mechanik vollständig zu verstehen. =) Der Vortrag von D-Wave fängt bei ca. 7min 30sek an. --stingerX 16:41, 28. Jan. 2008 (CET)

Lieber StingerX, was genau möchtest du damit sagen bzw. bezüglich des Artikels bewirken? Der physikalische Gehalt der Behauptungen von D-Wave Systems wird jedenfalls durch einen Beitrag von Google nicht aufgewertet. Es ist viel PR-Hype, damit Kapital ins Unternehmen kommt. Wirklich erklärt wird der Quantencomputer nicht. Nur ein paar toll klingende Worte (Stichwort Supraleiter) eingeworfen und schwammig etwas dazu erzählt. Die Leute von D-Wave hatten die Möglichkeit, am MIT (oder Harvard, jedenfalls steht was darüber in Scott Aaronsons Blog) ein paar führende Wissenschaftler vorzutragen. Diese zeigten sich wenig beeindruckt. Dann wird auch an irgend einem Google-Video nicht viel dran sein. Ich warte auf Veröffentlichungen in anerkannten wissenschaftlichen Magazinen oder eine unabhängige Überprüfung durch ein anderes Forschungsteam. --Prometeus 18:23, 28. Jan. 2008 (CET)
Ich schätze D-Wave als seriöse Firma ein, auch wenn ich nicht alles verstanden habe. Aber das hilft uns auch nicht weiter. Wir werden wohl warten müssen bis sie Mitte 2008 ihren 512- und Ende 2008 den 1024-Qubit-Computer vorstellen, dann wäre ein wesentlicher Vorteil gegenüber herkömmlichen Computer sicher da. --stingerX 15:03, 30. Jan. 2008 (CET)
Hätte ich nur meinen eigenen physikalischen Verstand, könnte ich dazu nichts sagen. Aber wenn außerhalb von D-Wave Systems kein einziger Quantenphysiker und Quanteninformatiker an das Unternehmen glaubt, sind gewisse Zweifel gerechtfertigt. Ich möchte das natürlich nicht dogmatisch betreiben, denke aber dass der Artikel zur Zeit gut wiederspiegelt, wie D-Wave Systems in der akademischen Welt rezipiert wird. Mittlerweile hat der Chef von D-Wave Systems am MIT auch viele der ehemaligen Pressemitteilungen relativiert und als "am Rande der Ungenauigkeit" bezeichnet. Da Wikipedia nicht der Theoriefindung sondern -darstellung dient sollten wir tatsächlich warten bis a) ein über alle Zweifel erhabener Quantencomputer präsentiert wird und b) die Fachwelt das auch so sieht.
PS: In dem Blog von Scott Aaronson antworten auch Mitarbeiter von D-Wave Systems, Geordie Rose mit eingeschlossen. Wer sich mehr für Quantencomputer und auch D-Wave Systems interessiert, sollte hier auf jeden Fall mal reinlesen. --Prometeus 15:47, 30. Jan. 2008 (CET)

Aussprache Qubit

Wie zur Hölle wird dieses Wort ausgesprochen? Es leitet sich von Quantum Bit ab? "Quantum" wird im Deutschen [kvantum] gesprochen, demnach "Qubit" [kvbit]? --Sixot 20:16, 29. Jan. 2008 (CET)

Kuh-Bit oder, auf gut denglisch Kjuh-Bit --Pyrrhus ;-) 21:59, 29. Jan. 2008 (CET)

„Im Unterschied zum Digitalrechner arbeitet er auf der Basis quantenmechanischer Zustände.“

Also der Definition eines Digitalrechners ist er ein Digitalrechner. Sonst Quelle! --source 10:32, 29. Jan. 2009 (CET)

Naja, sind verschränkte Zustände diskrete Zahlenrepräsentationen im Sinne eines Digitalrechners? -- Ukko 13:25, 29. Jan. 2009 (CET)
Nein, er ist einem Analogrechner ähnlicher, als einem Digitalrechner. Ein Digitalrechner "rauscht" nicht, ein Quantenrechner schon (Phasenrauschen). Es gibt ein "controlled Phase Shift Gate", das auf den Operanden eine Phasenverschiebung vornehmen kann. Was für ne "Phase" willst Du bei nem Digitalrechner schieben? 217.94.251.208 18:35, 20. Jul. 2010 (CEST)

Forschung in D / CH / A

Hallo! Wie wäre es mal, eine Übersucht zu geben, wer wo in unseren Landen an einem solchen Gerät forscht, und wenn es keiner tut, dass man dies erwähnt. Danke. (nicht signierter Beitrag von 88.76.35.224 (Diskussion | Beiträge) 21:42, 9. Aug. 2009 (CEST))

BQP (Komplexitätsklasse) - Fehlerwahrscheinlichkeit

Also in dem Artikel BQP (Komplexitätsklasse) wird gesagt, dass hier alle Probleme mit einer Fehlerwahrscheinlichkeit < 1/2 eingegliedert werden. In diesem Artikel ist jedoch von 1/4 die Rede. Was ist denn richtig? (nicht signierter Beitrag von 95.116.58.203 (Diskussion | Beiträge) 21:53, 15. Sep. 2009 (CEST))

Apologies for replying in English, but I have been reading this article to translate some sections to the English Wikipedia, and noticed this question. The constant used in the definition does not matter as long as it is strictly less than 1/2. For example, 1/3, 1/4 or 1/100 are all acceptable, and lead to the same complexity class BQP. See en:BQP for an explanation. -- RobinK 18:47, 13. Dez. 2009 (CET)

Es konnte gezeigt werden...

In der Einleitung steht: Es konnte gezeigt werden, dass unter Ausnutzung dieser Effekte bestimmte Probleme der Informatik wesentlich effizienter gelöst werden können als mit klassischen Computern. Meine Frage ist: Wer zeigte? Wissenschaftler? Vielleicht kann das jemand bei Gelegenheit ergänzen. --BangertNo 15:35, 17. Nov. 2009 (CET)

Widerspruch?

"Könnte man nachweisen, dass BQP eine echte Teilmenge von NP ist (...) Andererseits würde aus dem Nachweis, dass NP echte Teilmenge von BQP ist" (nicht signierter Beitrag von 141.84.44.220 (Diskussion | Beiträge) 13:59, 2. Feb. 2010 (CET))

Relaxion

Hallo Leute!!!
was ich nicht verstehe ist z.b., dass man bei der relaxion zwar davon ausgeht, dass ein system nach einer gewissen zeit der nichteinmischung und sich selbst überlassung den zustand geringsten energie annimmt und sich dieser effekt auch auf q-bits auswirken soll. man geht davon aus, dass das q-bit z.b. von zustand 1 in 0 verändert. ist das nicht eigentlich falsch? gilt die relaxion nicht nur für größere objekte außerhalb der direkten quanten-mechanik? ich wäre davon ausgegangen, dass der zustand für ein q-bit mit der geringsten energie wieder die superposition ist, welche ja der urzustand ist, in dem es noch nicht beobachtet wurde und sich standardmäßig befindet!? kann mir das einer erklären? Linki83 02:41, 10. Okt. 2010 (CEST)

Siehe auch

Ich kenn mich mit dem Thema zu wenig auch, um Sachen selbst entfernen/hinzufügen zu wollen, aber die "Siehe auch"-Liste erscheint mir vollkommen wirr und zufällig. Feynman? Bloch-Kugel? Alle Wörter, wo "Quanten-" drin vorkommt sind entweder bereits im Artikel verlinkt oder scheinen mir wie "Füllwörter". Ebenso die ganzen Algorithmen. Dieser David Deutsch, wieso ist der da drin? Ist Forscher auf dem Gebiet, aber das sind hundert andere auch. Das einzige, wo ich den "Siehe-auch-Charakter" eindeutig sehen kann, ist der DNA-Computer. Alles andere scheint entbehrlich. --Stefan 21:34, 8. Jan. 2011 (CET)

Die Logik der Einträge in der "siehe-auch"-Liste erschliesst sich mir auch nicht wirklich. Im Grunde ist die Liste redundant zu der im Artikel verlinkten Kategorie Quanteninformatik. Ich sehe daher keinen Nachteil darin, wenn die siehe auch-Liste auf den Eintrag zum DNA-Computer reduziert würde. Manche Punkte würden aber durchaus gut in Prosa-Form in den Artikel passen, beispielsweise wäre ein Geschichtskapitel sinnvoll, in dem dann auch die Beiträge von Feynman und Deutsch erwähnt werden sollten. -- Belsazar 13:23, 9. Jan. 2011 (CET)

Quantencomputer vermutlich ebenfalls nicht skalierbar

Quantencomputing wird in Diskussionen immer herangezogen, wenn Public-Key-Systeme wie RSA zu brechen sind. Die laufen klassischen Computern zeitlich exponentiell davon, Quantencomputern aber nur polynomial (Shor-Algorithmus). Ergo, so die Schlussfolgerung, seien heutige Public-Key-Systeme überholt, sobald es Quantencomputer gibt.
Ich schätze, das stimmt nicht. Enfaches Rechenbeispiel: RSA läuft heute mit 2.048 - 4.192 Bit. Nehmen wir die letzte Größe, so benötigt ein Rechenregister 8.192 Bit zum Berechnen aller Größen. Ein Quantencomputer benötigt davon drei Stück, um den Shor-Algorithmus auszuführen, macht ca. 24.000 Qbit. Ohne Korrektur kommt man vermutlich nicht weiter, ergibt für Bit- und Phasenflips den Faktor 9 und somit ca. 220.000 Qbit. Das wäre dann die erste Hürde, die zu nehmen wäre (heute beglaubigte Breite ca. 8-10 Qbit), und RSA könnte man problemlos auf 32 kBit oder höher aufsatteln.
Sodann läuft eine modulare Exponentiation auf Quantenrechnern etwa proportional n⁴ (vielleicht lässt sich da noch was drehen im Austausch gegen mehr Quantenbits), bezogen auf den RSA-Modul. Die Obergrenze der Operationenanzahl liegt aufgrund der Dekohärenz aber bei ca. 10¹³. Damit kämen die Quantencomputer aber noch nicht einmal mit den heutigen RSA-Moduln klar. Selbst wenn sich hier in der Zukunft noch einiges ändert, spricht doch derzeit eine ganze Menge dafür, dass Quantenrechner ebenfalls nicht skalierbar sind. RSA läuft Quantencomputern zwar nicht zeitlich, aber bezüglich der Operationenanzahl davon.
--Gbrands 09:12, 15. Jan. 2011 (CET)

Erster kommerzieller Quantencomputer

Hallo, ich habe eben im Spiegel gelesen, dass die Kanadische Firma D-Wave Systems (Website: http://www.dwavesys.com/en/dw_homepage.html) den ersten Quantencomputer herstellt, der kommerziell vertrieben wird. Er arbeitet mit herkömmlichen Schaltkreisen, die auf fast 0K abgekühlt werden und so quantenmechanische Eigenschaften bekommen - er hat 128 Qubits. Das sollte vermutlich noch in den Artikel mit aufgenommen werden.
--Jake 87.178.243.210 18:12, 28. Jul. 2011 (CEST)

ich bin eher für einen eigenen Artikel wie in en:wiki, klar kann man einen Satz darüber hier droppen --92.201.155.242 23:49, 13. Sep. 2012 (CEST)

Quantencomputer rückt näher - Digitaler Quantensimulator gebaut

falls relevant bitte einbauen: http://derstandard.at/1314652822490/Quantencomputer-rueckt-naeher---Digitaler-Quantensimulator-gebaut (nicht signierter Beitrag von 46.207.255.225 (Diskussion) 11:50, 2. Sep. 2011 (CEST))

Adiabatische Quantencomputer

Ein Sache, die mich am Abschnitt "Adiabatische Quantencomputer" irritiert: Die Formulierung "hinreichend langsam (also adiabatisch)". In thermodynamischen Prozessen gilt doch eher adiabatisch, weil hinreichend schnell. Außerdem bleibt das System bei einer adiabatischen Zustandsänderung doch gerade nicht im Grundzustand. --Schexpir (Diskussion) 02:07, 22. Jan. 2013 (CET)

Das kann man so nicht sagen. Eine adiabatische Zustandsänderung ist dadurch definiert, dass sich die Entropie des Systems nicht ändert. Ob der Prozess schnell oder langsam verläuft, ist damit noch nicht gesagt. 213.54.66.44 15:48, 6. Mai 2013 (CEST)

Falsche Angaben. Quantencomputer gibt es wirklich

Guten Tag. In der Einleitung steht, dass Quantenrechner theorethischer Natur seien, tatsächlich aber nicht eingesetzt werden. Das ist so nicht richtig. Hier die beweise:
http://www.wired.com/wiredenterprise/2013/06/d-wave-quantum-computer-usc/
http://www.dwavesys.com/en/dw_homepage.html
Quantenrechner im Vertrieb und Einsatz bei Fortune-500 Firmen, sowie im Militär. (nicht signierter Beitrag von 212.186.163.212 (Diskussion) 15:23, 29. Jun. 2013 (CEST))

und hier wird es noch realer, Google und die NASA haben die Hardware wohl gezeigt. --mw (Diskussion) 18:31, 9. Dez. 2015 (CET)
dabei handelt es sich um adiabatische QC. Bei denen scheint man in der Tat bei ca. 1000 Qbits angekommen zu sein. Allerdings eignen die sich nicht für RSA und ähnliches. Grob verglichen verhalten die sich zu den für RSA & Co. nutzbaren QCs etwa wie Analogrechner zu Digitalrechnern. Das Einsatzgebiet liegt vorzugsweise bei der Simulation von Festkörpereigenschaften, die für die Konstruktion immer kleinerer Schaltkreise interessant sind. Leider wird das in den Medien immer verschwiegen. Gilbert Brands (Diskussion) 16:51, 17. Dez. 2015 (CET)

Aktueller Forschungsstand

Hallo!
Ich weiss nicht so recht, wie der Status dieser Meldung einzustufen ist, aber falls das eine verlässliche Informationsquelle darstellen sollte, dann wäre der Stand der Forschung, so wie er im Lemma dargestellt ist, überholt und müsste aktualisiert werden:
http://scienceblog.com/64278/large-scale-quantum-chip-validated/
Gruß, --Crypto-ffm (Diskussion) 10:15, 1. Jul. 2013 (CEST)

Ergänzung - Adiabatische Quantencomputer - "D-Wave Two"

http://info.kopp-verlag.de/hintergruende/geostrategie/mike-adams/skynet-im-anmarsch-google-kauft-512-qubit-quantencomputer-nsa-ueberwachung-soll-an-ki-maschinen-ue.html
Zitat: Laut einem Artikel im Scientific American haben Google und die NASA jetzt gemeinsam einen 512-Qubit-Quantencomputer von D-Wave gekauft. Er trägt die Bezeichnung »D-Wave Two«, es ist die zweite Generation des Systems. Das erste System war ein 128-Qubit-Computer.
--Roemer2201 (Diskussion) 08:43, 18. Sep. 2013 (CEST)

Allgemeine Frage zum Quantencomputer

Guten Tag,
ich habe mich jetzt ein bisschen durch den Artikel gelesen und finde das alles ein spannendes Thema. Jedoch habe ich jetzt als Laie noch ein paar Fragen und hoffe das die Spezialisten unter euch mir weiterhelfen können.
Steht eigentlich schon fest wann der erste Quantencomputer erscheint und weiß man schon einen Preis? Wenn der Preis nämlich höher ist als ein Apple Air Book würde ich mir lieber das holen.
Ist die Grafik des Quantencomputer besser als Windows 7? Und da ich ab und an noch ein paar ältere Spiele wie Sims Deluxe oder Siedler IV zocke, würde ich gerne wissen ob die Grafik von den Spielen dann auch besser wirkt wenn ich das Spiel auf einem Quantencomputer installiere.
Wird man HD Filme auf einem Quantencomputer angucken können und kann man ihn mittels einem HDMI Kabel an den Fernsehn anschließen?
Und außerdem habe ich noch ein paar alte Disketten hier rumliegen die ich aber ab und zu noch benötige. Werden diese mit einem Quantencomputer kompatibel sein?
Vielen Dank im Voraus :) (nicht signierter Beitrag von 79.197.148.69 (Diskussion) 11:05, 28. Nov. 2013 (CET))

Tut mir leid, dich darauf hinzuweisen, aber wenn du diese/deine Frage(n) wirklich ernst meinst, dann hast du leider garnichts verstanden. Allerdings ist die Abhandlung (oder der Artikel) nebenan ehrlich gesagt (noch immer) auch nicht besonders gut (siehe dazu auch oben, im Abschnitt Verständlichkeitdazu schreib ich auch gleich nochwas). -- 92.225.113.154 13:18, 28. Nov. 2014 (CET)
So ganz unrecht hat er aber trotzdem nicht. In den Medien wird tatsächlich immer so getan, also könne man RSA nächstes Jahr in die Tonne kloppen und in zwei Jahren die Dinger bei "ich bin doch nicht blöd" kaufen. Die EU fördert aktuell bereits Post-Quantum-Kryptografie-Projekte mit annähernd 4 Mio €. Das Wie und Warum ist sicher einen eigenen Blog wert. Gilbert Brands (Diskussion) 16:56, 17. Dez. 2015 (CET)

Adiabatischer Quantencomputer

Laut diversen Medienmeldungen hat Google Labs mit dem 2007 auf den Markt gekommenen adiabatischen Quantencomputern Ende 2015 tatsächlich Rechenvorgänge ausgeführt, die ca. 100.000.000 mal (!) schneller abliefen als ein mit einem sehr ähnlichen Optimierungsalgorithmus programmierter normaler Computer.

Die Aussage ist nicht, dass dies der optimale oder schnellstmögliche Algorithmus zur Lösung dieser Aufgabenklasse ist, sondern dass der fragliche Chip tatsächlich Quanteneffekte ausnutzt - und bei entsprechender Optimierung (im wesentlichen mehr QuBits) deutlich schneller ist als ein klassischer Computer bei gleicher Problemstellung. (nicht signierter Beitrag von 128.127.107.94 (Diskussion) 09:42, 20. Dez. 2015 (CET))

Kein rein theoretisches Konzept

Sollte der letzte Abschnitt der Einleitung nicht aktualisiert werden? Besonders "von einer tatsächlichen Anwendung und praktischem Nutzen ist man aber noch weit entfernt." trifft doch nicht mehr zu. Siehe hierzu bspw.: [1], [2]. 2003:46:1B1F:5B00:ECE5:5EFC:96CC:F58E 17:09, 16. Aug. 2016 (CEST)

Mächtigkeit

Unter dem Abschnitt "Quantenregister, Verschränkung" steht:

"[...] dass Quantencomputer mächtiger als klassische Computer sein könnten, d. h. dass sie prinzipiell bestimmte Probleme wesentlich schneller [...]"


aber die Mächtigkeit eines Berechnungssystems bezieht sich in der Regel auf Berechenbarkeit(theoretische Lösbarkeit), nicht auf Komplexität(Dauer). Insofern ist da die Wortwahl problematisch da sie suggeriert dass Quantencomputer mehr als Turingvollständig sein könnten, sie lassen sich allerdings durch normale Rechner simulieren, allerdings in grausiger Laufzeit. (nicht signierter Beitrag von 2003:87:480A:1FF:610F:C00A:6274:CCA4 (Diskussion | Beiträge) 16:38, 27. Okt. 2016 (CEST))

Dem stimme ich zu. Die Formulierung „mächtiger“ sollte hier nicht verwendet werden. --H.Marxen (Diskussion) 15:41, 7. Nov. 2016 (CET)

Kommerzielle u.a. Anwendungen

Bei den zitierten Fehlerraten und den bisherigen Betriebszeiten sehe ich praktische Anwendungen in weiter Ferne. Wissenschaftlich interessant, kommerziell absolut wertlos bzw. nur vielleicht als neues Computerspiel verwertbar. --Hannover86 (Diskussion) 17:58, 30. Jan. 2019 (CET)

Ob Du darin praktische Anwendungen siehst, spielt keine Rolle. Vor der praktischen Anwendung steht die Grundlagenforschung, an der ist man dran. Was erwartest du? Das da immer gleich ein verwendbares Produkt heraus purzelt? Wenn ja, dann hast du Forschung nicht verstanden. Die ersten Computer in den 1930er und 1940er Jahren waren auf dem Stand, an dem die QC heute sind. Eines hat aber auch damals schon nicht weitergeholfen: Menschen, die sich gleich ihr Urteil bilden und ungefragt ihre Meinung in die Welt hinauspusten, dass das Ganze ja doch zu nichts brauchbar sei. Bevor man ein Flugzeug baut, sollte man das Fliegen lernen - und ja, das geht hin und wieder daneben. 2003:CB:A705:C701:5082:1D2F:F6BA:4C3E 21:48, 6. Okt. 2019 (CEST)

Qubit: Überlapp der Erwartungswerts

Im Artikel steht

meines Verständnisses nach muss aber der Überlapp null sein, damit die weiter oben genannten Definitionen und gelten. Oder sehe ich das falsch? -- Michi 16:03, 18. Mai 2013 (CEST)

Das ist eine offensichtliche Unschärfe im Artikel: Die zweite Aussage bedarf der Orthonormalität der Basisvektoren. Die erste Aussage hat jedoch bei Orthogonalität einen verschwindenden "Überlapp". MfG --KMS-at-Wiki (Diskussion) 13:11, 13. Mär. 2015 (CET)

Diese Formel hat den Benutzer 85.220.152.228 auch gestört. In einer ersten Änderung vom 14.2.2018 hat er Orthogonalität ergänzt. Diese Version wurde binnen eines Tages akzeptiert.

Da Orthogonalität in der Informationsdarstellung eigentlich zwingend erforderlich ist, hat er im Beitrag vom 16.2.2018 den Artikel vereinfacht, indem er alle Hinweise auf nichtorthogonale Basiszustände gelöscht hat. Diese Version ist binnen 1 Minute von Horst Gräbner zurückgesetzt worden.

Zusätzlich ist 85.220.152.228 von Horst Gräbner für ein Jahr wegen anhaltender regelwidriger Bearbeitungen gesperrt worden.

Konklusion: 1) Diese Überlagerungsformel ist wichtig, darf nicht gelöscht werden, obwohl sie im weiteren Artikel nicht verwendet wird.

Leider wird das Symbol nicht definiert. wird als Wahrscheinlichkeit angegeben, man beachte, daß es und nicht heißt. Ist demnach die Wahrscheinlichkeit, den Wert zu messen?

2) Nicht orthogonale Basiszustände müssen berücksichtigt bleiben, dann sollte der Artikel diese aber korrekt berücksichtigen.(nicht signierter Beitrag von 130.60.87.139 (Diskussion) )

Ich kann den beiden Konklusionen der IP nicht zustimmen. Ich sehe die Begründung für die Verwendung nicht-orthogonaler Basiszustände und halte sie im Artikel für unnötig und verwirrend. Unnötig, da im weiteren Text nie eine nicht-orthogonale Basis benötigt wird (an zwei Stellen (Quantengatter, Dekohärenz) wird dagegen die Basis |0>,|1> ohne weiteres als orthogonal angenommen). Verwirrend deshalb, weil in der Literatur zum Quantencomputer (nahezu) ausschliesslich (die einzigen Ausnahmen sind mW Fälle, in denen die tatsächlichen Zustände eine Orthonormalbasis gut, aber nicht exakt approximieren, wie z.B. zwei kohärente Zuständen, vgl. arxiv:quant-ph/0110115) die kanonische orthogonale computational basis gewählt wird. Insbesondere die Messung wird im Quantencomputer immer als von-Neumann-Messung (d.h. mit zueinander orthogonalen Projektoren) angenommen.
Da man immer eine Orthonormalbasis wählen kann (und alle Quantengatter immer in der orthonormalen computational basis angegeben werden) sehe ich keinen Grund das hier komplizierter zu machen.
Mein Vorschlag wäre, statt "Dazu bedient man sich eines physikalischen Systems mit zwei nicht notwendigerweise orthogonal gewählten Basiszuständen eines zweidimensionalen komplexen Raums, wie er in der Quantenmechanik auftritt." zu schreiben,
Dazu bedient man sich eines physikalischen Systems das zwei zueinander orthogonale Zustände einnehmen kann.
In der Folge liesse sich der Abschnitt deutlich kürzer und klarer darstellen. Wenn's hier keinen Widerspruch gibt (diese Disk ist ja schon lange her) werd ich mich da mal dran machen.--Qcomp (Diskussion) 21:11, 24. Apr. 2019 (CEST)
ich habe die unnötig komplizierte Behandlung nicht-orthogonal gewählter Basiszustände jetzt entfernt: wird in der Literatur zum Quantencomputer nicht gemacht, bringt keine zusätzliche Allgemeinheit (da man oBdA immer eine orthogonale Basis wählen kann) und wird im WP-Artikel weiter unten auch nirgends gebraucht. --Qcomp (Diskussion) 20:43, 30. Jan. 2020 (CET)

Basiszustände und Holevos Theorem

Der Satz aus dem Text:

Da eine am Register vorgenommene Messung stets genau einen der Basiszustände auswählt, lässt sich unter Anwendung des so genannten Holevo-Theorems zeigen, dass der maximale zugängliche Informationsgehalt eines einzelnen unverschränkten Qubits wie im klassischen Fall genau ein Bit beträgt,

gibt wenig oder gar keinen Sinn. Erstens ist wohlbekannt, dass ein Elektron mit seinem Spin nur ein Bit speichert, und braucht hier nicht gesagt zu werden. Vor allem, weil es zweitens um Register aus mehreren und gerade nicht um einzelne Qubits geht, und drittens, weil es auch noch falsch ist. ‚Die Basiselemente‘ sind nämlich im Textzusammenhang die Produktzustände der Basiszustände der Qubits, die das Register ausmachen. Eine Messung am Register kann aber durchaus auch Zustände bestimmen, die aus diesen überlagert, also verschränkt sind. Die Messung der Bell-Zustände eines Paars von Qubits, also eines Zweierregisters, ist wesentlicher Bestandteil im Prozess der Quantenteleportation. (nicht signierter Beitrag von Binse (Diskussion | Beiträge) 13:22, 22. Nov. 2019 (CET))

ich denke was in diesem Abschnitt klargemacht werden soll, ist dass der Quantencomputer eben nicht "alle Zustände gleichzeitig" vorliegen hat in dem Sinn, dass man mehr als eine n-Bit-Zahl auf einmal auslesen könnte. Man sollte das Holevo-Theorem so zitieren, dass "der maximale zugängliche Informationsgehalt eines -Qubit-Registers wie der eines klassischen -Bit-Registers genau Bit beträgt. --Qcomp (Diskussion) 16:53, 22. Nov. 2019 (CET)
ich hab den Satz jetzt entsprechend geändert (Holevo-Theorem trifft auch für verschränkte Qubits zu; das ist kein Widerspruch zu "Dichter Kodierung" (wie eine Fussnote im Artikel nahezulegen schien), da auch dabei 2 Qubits gemessen werden müssen, um 2 Bits and Information zu bekommen). --Qcomp (Diskussion) 21:39, 30. Jan. 2020 (CET)

Einweihung von Europas leistungsstärkstem Quantencomputer am 15. Juni 2021

Einweihung von Europas leistungsstärkstem Quantencomputer im industriellen Kontext. 15. Juni 2021, 14:00 Uhr
https://www.ibm.com/de-de/events/quantum-opening
https://www.swr.de/swraktuell/baden-wuerttemberg/quantencomputer-ibm-100.html
https://www.bundesregierung.de/breg-de/service/newsletter-und-abos/bundesregierung-aktuell/inbetriebnahme-des-quantencomputers-bei-ibm-in-ehningen-virtuelle-teilnahme-und-gastvortrag-kanzlerin-merkel--1926538 --Dankedaniel (Diskussion) 15:02, 15. Jun. 2021 (CEST)

Qcomp, ein Update wäre nun faktenbasiert möglich ;-) --Dankedaniel (Diskussion) 12:59, 16. Jun. 2021 (CEST)

Artikel bitte updaten/erweitern mit: "Compact Ion-Trap Quantum Computing Demonstrator"

Ich denke es könnte gut angebracht sein Informationen zu dieser Studie in den Artikel einzubauen. Man könnte es zur Sektion "Forschungsgeschichte" hinzufügen oder beispielsweise nur das Bild mit einem kurzen Untertitel hinzufügen.

In 2021#Wissenschaft und Technik/en:2021 in science ist es derzeit wie folgt inkludiert:

Forscher präsentieren den weltweit ersten kompakten Quantencomputer welcher Qualitätsstandards erfüllt und in zwei Serverschränke passt.

refs:

  • Quantum computer is smallest ever, claim physicists In: Physics World, 7 July 2021. Abgerufen im 11 July 2021 
  • I. Pogorelov, T. Feldker, Ch. D. Marciniak, L. Postler, G. Jacob, O. Krieglsteiner, V. Podlesnic, M. Meth, V. Negnevitsky, M. Stadler, B. Höfer, C. Wächter, K. Lakhmanskiy, R. Blatt, P. Schindler, T. Monz: Compact Ion-Trap Quantum Computing Demonstrator. In: PRX Quantum. 2. Jahrgang, Nr. 2, 17. Juni 2021, S. 020343, doi:10.1103/PRXQuantum.2.020343 (aps.org).
Simplified scale model

In der englischsprachigen Wikipedia habe ich Infos dazu zum Artikel en:Trapped ion quantum computer hinzugefügt.

--Prototyperspective (Diskussion) 23:59, 20. Jul. 2021 (CEST)

Sind da die Kühlaggregate/Vakuumapparatur mit eingeschlossen ? Wäre so eine Zwischenzustandsmeldung, 50 Qubit computer passt in zwei Serverschränke statt ganzen Raum einzunehmen. PS: ich habe die Fussnoten mal rausgenommen sonst geht hier auf der disk alles durcheinander.--Claude J (Diskussion) 07:53, 21. Jul. 2021 (CEST)

Unvollständige Textpassage zu den vier Basisvektoren eines 2-Qubit

"Die möglichen orthonormalen Basisvektoren eines 2-Qubit-Quantumspeichersystems können doch"; da fehlt ein Verb, Adverb, oder der komplette Kontext bis zum Satzende. Die Formatierung könnte anders sein und der Satz mit einem Doppelpunkt abschließen, dem die vier Basisvektoren folgen. --FolkertM (Diskussion) 16:59, 18. Jan. 2022 (CET)

Danke für den Hinweis. Erledigt.--Claude J (Diskussion) 18:06, 18. Jan. 2022 (CET)
danke für Hinweis und Korrektur; allerdings frage ich mich, ob dieser Level an Detail (Spaltenvektor-Darstellung der Rechenbasis, mehrere Absätze über das CNOT-Gatter) wirklich in diesen Artikel gehören. Der Hauptartikel dafür ist ja eigentlich Quantengatter und auch dort wird es kürzer abgehandelt. Ich hatte mich auch an die Ergänzung gemacht, dann aber mehr und mehr umstellen u löschen wollen. Wurde es hier nicht genügen, den Absatz wie folgt zu küren und umzuschreiben:
Die elementaren Operationen, die ein Quantencomputer auf seinen Qubits durchführen kann, nennt man Quantengatter. Sie spielen eine ähnliche Rolle wie die elektronischen Gatter eines klassischen Computers. Anders als ihr Name suggeriert, stellen Quantengatter in der Regel keine physikalischen Bauelemente wie Transistoren dar sondern beschreiben den Effekt einer steuerbaren, zeitlich begrenzten Wechselwirkung der Qubits untereinander oder mit ihrer Umgebung.
Mathematisch wird ein Quantengatter durch eine unitäre Transformation beschrieben, welche auf den Zustand der Qubits angewendet wird und den Zustand erzeugt.
Jede Quantenrechnung kann als Hintereinanderausführung verschiedener Quantengatter geschrieben werden, die in fester zeitlicher Abfolge auf das Quantenregister angewendet werden; man spricht auch von einem Quantenschaltkreis. Beispiele hierfür sind die Quanten-Fouriertransformation oder der Shor-Algorithmus.
Interessant ist das Konzept der Quantengatter vor allem, weil sich jeder beliebige Quantenschaltkreis kann als eine Folge von einfachen, nur auf wenigen Qubits agierenden Quantengattern schreiben lässt. (EN Nielsen/Chang, S. 188) Eine Menge von Quantengattern mit dieser Eigenschaft heisst universell.
die Beispiele NOT und CNOT könnte man teilweise noch in Quantengatter einarbeiten, wobei ich da beim CNOT eigentlich auch lieber auf die Matrixdarstellung verzichten würde. Wie seht Ihr das? -Qcomp (Diskussion) 19:21, 18. Jan. 2022 (CET)
Salut Qcomp, ja, da bin ich bei dir. Wer fragt Professor Niehaus? Er kann das getrost selbst erledigen! --FolkertM (Diskussion) 10:19, 22. Jan. 2022 (CET)
Salut Claude J, wie wäre es wenn wir das mit dem Nutzer diskutieren? Benutzer:Bert Niehaus ist Professor für Mathematik: "Engelbert Niehaus is full Professor for Mathematics and Mathematics Education at the University Koblenz-Landau and is head of the Computer Science Centre in Landau (Germany)." Ich lege mich ungern mit der akademischen Elite an. Aber seine Motivation für die Ergänzung möchte ich verstehen. Gerade durch den Hinweis auf den Hauptartikel im Abschnitt. --FolkertM (Diskussion) 10:17, 22. Jan. 2022 (CET)
Ich nehme an die detaillierte Darstellung hat pädagogische Gründe, pinge doch den Benutzer Niehaus an, von dem das stammt,dann kann er sich direkt äußern. Mich stört diese Ausführlichkeit nicht, gibt dem Leser ein klein wenig das Gefühl in die Materie eingedrungen zu sein und gibt ein Gefühl für die dort gängige Formulierung (lineare Algebra da endliche Zustandsmengen betrachtet). Mich stören im Augenblick zwei Punkte bzw. ich sehe da Ergänzungsbedarf: 1. die prominente Erwähnung des Förderprogramms der Bundesregierung in der Einleitung. Welche Gruppen hier welche Strategie verfolgen sollte sicher näher erläutert werden, vielleicht in eigenem Artikel (im Haupttext dieses Artikels wird es nicht ausgeführt). Im Augenblick habe ich selbst keine Zeit für die Recherche. Eine Gruppe ist an der PTB in Braunschweig wo sowieso die Atomuhren- und Präzisionsmessungs-Kompetenz liegt und auch mit dem Laserforschungsschwerpunkt in Hannover zusammenarbeitet, IBM in Süddeutschland bzw. Schweiz gehört auch dazu (bisher einziger echter Quantencomputer in Deutschland ?). 2. Der andere Punkt sind die Bausteine. Was soll der Baustein z.B. bei möglichen Anwendungsgebieten ? Das bezweifelt doch niemand ernsthaft, es gibt ja auch schon entsprechende Kunden aus Industrie etc., die sich bei adiabatischen Quantencomputern (sollten hier aber deutlich abgegrenzt werden, so was wie Quanten-Analogrechner) oder IBM schon gemeldet haben (und offensichtlich schon jetzt eine Menge Geld dafür ausgeben) oder Interesse bekundet. Deshalb ja auch Merkels Förderprogramm. Dann der Baustein bei Berechenbarkeit und Komplexität. Das ist alles ganz gut aus meiner Sicht erläutert, und die Komplexitätsklasse BQP hat eigenen Artikel, dafür braucht man hier nichts zu belegen. Ein Beleg fehlt meiner Meinung nach nur für die beiden Aussagen im Absatz: "Es lässt sich zeigen, dass die Simulation eines Quantencomputers in der Komplexitätsklasse PSPACE liegt. Man geht daher davon aus, dass es keinen Simulationsalgorithmus gibt, der einen Quantencomputer mit polynomiellem Zeitverlust simuliert." PS: Bei Toffoli-Gatter kann doch wohl auf Liste_der_Quantengatter#Quantengatter_mit_drei_Eingängen verlinkt werden, solange sich noch niemand für einen eigenen Artikel durchgerungen hat ?--Claude J (Diskussion) 17:49, 22. Jan. 2022 (CET)
Da ich gerade dabei bin, fehlt auch die genauere Erläuterung zu den möglichen Realisierungen als rein optische Quantencomputer (ist kurz angesprochen bei der von Google kritisierten Behauptung einer chinesischen Forschungsgruppe im Abschnitt Forschungsgeschichte, mit solchen Computern den Beweis der Quantenüberlegenheit erbracht zu haben (Jian-Wei Pan). Ich hatte seinerzeit auch eingefügt, dass optische Quantencomputer bisher technisch wenig entwickelt sind, was dann wieder entfernt wurde mit eben dem Argument, die Erläuterung dieser Hardware fehle bisher. Dann das breite aktuelle Forschungsfeld von Quantencomputern auf Siliziumbasis (für die ja eine ganze Industrie mit ihren Technologien schon bereitstehen würde), unter anderem für Fortschritte darauf erhielt Lieven Vandersypen den Spinoza-Preis. Kürzlich erschien in Nature drei Artikel, die Fortschritte bei der Fehlertoleranz dieser Computer darlegten. nature, Noiri etal, nature, Madzik etal, nature, Xue, Vandersypen etal, nature. Allgemein ist der Aspekt der konkreten experimentellen Realisierung im Vergleich zur Theorie unterrepräsentiert,da kann man aber wohl bei jedem Typ eigene Artikel anlegen. Vielleicht findet sich ja noch jemand der sich da genauer auskennt und nicht groß recherchieren muss.--Claude J (Diskussion) 18:14, 22. Jan. 2022 (CET)
danke für die sinnvollen Vorschläge um ein paar der einfacheren kümmere ich mich, andere brauchen mehr Zeit als ich im Augenblick habe; im Absatz zur Komplexitätstheorie kamen mir aber Zweifel an der dortigen Darstellung des Raz-Tal-Resultats; siehe dazu neuer Abschnitt.
Bzgl. der möglichen Kürzung des Quantengatter-Abschnitts warte ich mal ab.--Qcomp (Diskussion) 22:57, 22. Jan. 2022 (CET)
Wikipedia steht für kollaborative Entwicklung, also bitte die Details wieder zurücksetzen, wenn es stört. Bei dem Thema ist es nun einmal so, dass man von der Mathematik, Informatik oder Physik auf den Inhalt schauen kann und ggf. würde man dann auch einen anderen Schwerpunkt setzen. Also gerne ein Rollback der Version. Der Artikel muss für alle Diszipline in Ordnung sein. --Bert Niehaus (Diskussion) 18:22, 22. Jan. 2022 (CET)

nicht entartet im Abschnitt Qubits

Welche Definition von nicht entartet ist hier gemeint? Diese: Bilinearform#Nicht_ausgeartete_Bilinearform? Die Matrix in dem Beispiel ist ja und offensichtlich ist der Vektor in ihrem Ausartungsraum.

--Maformatiker (Diskussion) 11:28, 22. Jan. 2022 (CET)

gemeint ist Entartung (Quantenmechanik): die Observablen, werden durch hermitesche Matrizen beschrieben, deren Eigenwerte alle die Multiplizität 1 haben. Hab einen entspr. WL ergänzt. --Qcomp (Diskussion) 12:35, 22. Jan. 2022 (CET)

Abschnitt "Komplexität" irreführend/unvollständig?

Die Darstellung des Raz-Tal-Resultats im Abschnitt gefällt mich nicht recht: Dass ein Quantencomputer relativ zu einem Orakel mehr kann als ein klassischer Computer (=BPP) ist doch schon spätestens seit Simons Algorithmus bekannt (und unabhängig davon, ob BQP=NP). Bei Raz-Tal geht es, soweit ich es verstehe, darum, dass BQP (relativ zu einem Orakel) nicht in der polynomialen Hierarchie liegt (zu der Simons Problem meines Wissens nicht gehört), das heisst es liefert weitere Information wie sich BQP von den klassisch effizient lösbaren Problemen unterscheidet (und wird vielleicht mal ein wichtiger Schritt auf dem Weg zu einem BQPNP-Beweis gewesen sein). Aber das im ersten Satz des Abschnitts genannte Problem ist immer noch offen, denn für die Orakel, relativ zu denen Trennungen gezeigt wurden, ist keine effiziente Realisierung bekannt. Daher finde ich den Abschnitt irreführend, ich bin aber kein Komplexitätsexperte. Was man hier mE sagen sollte ist (1) es gibt keinen Beweis dafür, dass BQPBPP (also dass die vom Quantencomputer effizient lösbaren Probleme strikt mehr sind als die klassisch effizient lösbaren), (2) eine Trennung lässt sich für Sampling-Probleme zeigen, wenn man annimmt, dass die Polynomialzeithierarchie nicht kollabiert (vgl. BosonSampling etc.) (3) eine Trennung lässt sich auch relativ zu bestimmten Orakeln zeigen (Bernstein-Vazirani, Simon, ..., Raz-Tal), aber das sagt nichts über die Trennung ohne Orakel. (4) Es gibt konkrete Probleme, für die ein effizienter Quantenalgorithmus bekannt ist, aber kein effizienter klassischer Algorithmus (Primfaktorzerlegung, Quantensimulation). Die Kerenidis-Tang-Geschichte gehört hier mE eigentlich nicht hin. Ggf könnte man sie als Beispiel bringen, dass mein Punkt (4) nicht viel bedeuten muss. -- Meinungen? --Qcomp (Diskussion) 22:58, 22. Jan. 2022 (CET)

Klar,dass betraf nur eine Vorstufe (technisch: mit Orakeln) und einen Zwischenschritt (PH) auf dem Weg zu NP. Ich habe das mal ausführlicher dargestellt. Als Quelle diente mir ursprünglich der Quanta Magazine Aufsatz, der Zusammenhang ist genauer in der Einleitung der Arbeit von Raz/Tal dargestellt.--Claude J (Diskussion) 20:33, 31. Jan. 2022 (CET)

Berechenbarkeits- und Komplexitätstheorie

´Dieser Abschnitt enthält keinen vollständugen deutschen Satz! (nicht signierter Beitrag von 2003:E6:2719:1E00:FD54:7555:203A:30D6 (Diskussion) 16:25, 31. Jan. 2022 (CET))

Danke, das war ein Edit-Unfall meinerseits. Sorry. Jetzt sollte es passen. --Qcomp (Diskussion) 16:42, 31. Jan. 2022 (CET)