Dies ist ein als exzellent ausgezeichneter Artikel.

Riemannsche Vermutung

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Bernhard Riemann

Die Riemannsche Vermutung, Riemannsche Hypothese, Riemannhypothese oder kurz RH trifft eine Aussage über die Verteilung der Primzahlen und ist eines der bedeutendsten ungelösten Probleme der Mathematik. Sie wurde erstmals 1859 von Bernhard Riemann in seiner Arbeit Über die Anzahl der Primzahlen unter einer gegebenen Größe in einem Nebensatz formuliert. Nachdem sie bereits im Jahr 1900 von David Hilbert auf seine Liste 23 wichtiger Jahrhundertprobleme gesetzt worden war, wurde sie im Jahr 2000 vom Clay Mathematics Institute in die Liste der sieben Millennium-Probleme der Mathematik aufgenommen. Das Institut in Cambridge (Massachusetts) hat damit ein Preisgeld von einer Million US-Dollar für eine schlüssige Lösung des Problems in Form eines mathematischen Beweises ausgelobt.

Einfach gesprochen sagt die Riemannsche Vermutung aus, dass sich die Folge der Primzahlen 2, 3, 5, 7, 11 … „möglichst zufällig“ verhält. Das sollte sich zum Beispiel dadurch äußern, dass die Abfolge der Ereignisse für 1, 2, 3, 4, 5, ..., dass eine Zahl eine gerade Anzahl an Primfaktoren besitzt, wie zum Beispiel , oder eine ungerade Anzahl an Primfaktoren besitzt, wie , auf lange Sicht ungefähr ein Verhalten aufweist, das auch ein häufig wiederholter Münzwurf mit „Kopf“ und „Zahl“ haben könnte. Eine Theorie, welche die Riemannsche Vermutung löst und damit eine tiefere Erklärung für diese Zufälligkeit unter den Primzahlen lieferte, könnte daher aus Sicht der Mathematiker ein fundamental neues Verständnis für Zahlen im Allgemeinen nach sich ziehen.

Übersetzt man dies in die Fachsprache der analytischen Zahlentheorie, ist die Riemannsche Vermutung gleichbedeutend mit der Aussage, dass sämtliche komplexe Nullstellen der Riemannschen Zeta-Funktion im sog. kritischen Streifen den Realteil besitzen. Die Zeta-Funktion ist eine mathematische Funktion, die Informationen über Primzahlen in ihrem Abbildungsverhalten kodiert. Dabei kommt den Nullstellen eine besonders wichtige Rolle zu. Es ist schon bekannt und bewiesen, dass die Zeta-Funktion reelle Nullstellen hat, die sogenannten trivialen Nullstellen. Ferner weiß man seit Beginn des 20. Jahrhunderts, dass die Zeta-Funktion unendlich viele nichtreelle Nullstellen mit dem Realteil besitzt. Die Riemannsche Vermutung besagt also, dass es darüber hinaus keine weiteren Nullstellen gibt, d. h., dass alle nichttrivialen Nullstellen der Zeta-Funktion auf einer Geraden in der Zahlenebene parallel zur imaginären Achse liegen.

Die Riemannsche Vermutung ist sehr bedeutsam für die moderne Mathematik und wird von einigen führenden Mathematikern sogar als das derzeit wichtigste Problem der reinen Mathematik angesehen. Viele bisher ungelöste Fragestellungen, besonders aus der Zahlentheorie, können mit ihrer Richtigkeit beantwortet werden. Dies betrifft Probleme aus der mathematischen Grundlagenforschung, wie etwa solche der Primzahlverteilung im Umfeld des Primzahlsatzes oder der offenen Goldbachschen Vermutung, als auch der angewandten Mathematik, wie schnelle Primzahltests. Gleichzeitig gilt sie auch als äußerst schwierig zu beweisen. Ein Grund hierfür ist, dass die Menschheit aus Expertensicht bisher nicht über die nötigen mathematischen Werkzeuge verfügt, sie überhaupt angreifen zu können. Bisherige Beweisversuche von prominenten Mathematikern scheiterten allesamt.

Durch umfassenden Einsatz von Computern ist es gelungen, die Riemannsche Vermutung für die ersten 10 Billionen Nullstellen der Zeta-Funktion zu bestätigen. Da die Zeta-Funktion jedoch nachweislich unendlich viele nichtreelle Nullstellen besitzt, könnte sie auf diese Weise nur durch Angabe eines expliziten Gegenbeispiels widerlegt, jedoch nicht bewiesen werden. Ein Gegenbeispiel wäre eine Nullstelle im kritischen Streifen mit Realteil ungleich .

Überblick[Bearbeiten | Quelltext bearbeiten]

Zusammengesetzte Zahlen können durch echte „Rechtecke“ ausgedrückt werden (rot), während bei Primzahlen nur eine simple Aneinanderreihung möglich ist (blau)
Die Primzahlen (blau) stehen in tiefem Zusammenhang zu einem System komplexer Zahlen (rot) – hier alles zusammen visualisiert in der komplexen Ebene. Erst durch die seit dem 19. Jahrhundert entwickelte Mathematik, insbesondere den Einsatz komplexer Zahlen, wurde diese Dualität „sichtbar“. Trifft die Riemannsche Vermutung zu, so liegen alle (unendlich vielen) nichttrivialen „Dualzahlen“ auf der gestrichelten Linie.
Die Häufigkeit der Primzahlen wird durch eine Treppe visualisiert: Bei einer Primzahl macht diese einen Sprung um 1 nach oben. Jede Nullstelle der Zeta-Funktion entspricht einer Schwingung. Bringt man all diese gleichzeitig in Interferenz, so rekonstruiert sich die Verteilung. Das Bild zeigt den Effekt der „ersten“ 50 Nullstellenpaare.

Im Zentrum der Zahlentheorie, jenes Zweiges der Mathematik, der sich mit den Eigenschaften der natürlichen Zahlen 1, 2, 3, 4 … beschäftigt, stehen die Primzahlen 2, 3, 5, 7, 11 …. Diese sind ausgezeichnet durch die Eigenschaft, genau zwei Teiler zu haben, nämlich die 1 und sich selbst. Die 1 ist keine Primzahl. Primzahlen bilden gewissermaßen die Atome der ganzen Zahlen, da sich jede positive ganze Zahl eindeutig multiplikativ in solche zerlegen lässt. Dieses Resultat wird auch als Fundamentalsatz der Arithmetik bezeichnet. Zum Beispiel gilt 21 = 3 · 7 und 110 = 2 · 5 · 11.

Trotz ihrer einfachen Definition ist nach mehreren Jahrtausenden Mathematikgeschichte bis heute kein Muster bekannt, dem sich die Primzahlen in ihrer Folge unterwerfen. Ihre Natur ist eine der bedeutendsten offenen Fragen der Mathematik. Die Riemannsche Vermutung ist eine bis heute nicht bewiesene Aussage über die Verteilung der Primzahlen und motiviert sich aus folgenden Fragestellungen:[1]

  • Wie viele Primzahlen 2, 3, 5, 7, 11 … gibt es unter der Zahl 100? Und wie viele sind es unterhalb 10 000 oder 1 000 000?
  • Allgemeiner, wie viele Primzahlen gibt es unterhalb einer beliebigen Zahl, etwa X?

Auf den ersten Blick sind dies Fragen sehr spezieller Natur, lediglich die Theorie der Zahlen, bzw. Primzahlen, betreffend. Mathematiker, und später auch Physiker, haben jedoch herausgefunden, dass sie mit einer Vielzahl von Strukturen zusammenhängen, die zahlreiche Felder der mathematischen Wissenschaften verknüpfen. Dies betrifft etwa die Quantenphysik, aber auch die Wahrscheinlichkeitstheorie, jener Zweig der Mathematik, der sich mit dem Zufall befasst. All diese Zusammenhänge sind bisher weder exakt formalisiert, noch verstanden worden. Sie alle münden jedoch gemeinsam in der Riemannschen Vermutung: Die Primzahlen stehen in einer Dualität[2][3] zu einem anderen Typ mathematischer Objekte. Dabei bedeutet Dualität, dass es eine natürliche Paarung zwischen den Primzahlen und diesen anderen Objekten gibt. In etwa übertragen sich Informationen über die Primzahlen zu diesen anderen Objekten, aber auch vice versa kodieren Primzahlen Informationen über ihre „Partnerobjekte“. Bei diesen Objekten handelt es sich wieder um Zahlen. Diese unterteilen sich in zwei Kategorien:

  • Bereits Mitte des 19. Jahrhunderts erkannte Bernhard Riemann, dass die negativen geraden Zahlen, also , ein Teil dieser Dualität sind. Man bezeichnet diesen Teil bis heute auch als trivial, da die mathematische Tiefe für dessen Verständnis nicht so hoch ist.
  • Die übrigen, nichttrivialen „Dualzahlen“ treten nicht als „Zählzahlen“ in Erscheinung, wie es etwa die Primzahlen 2 und 3 auf der anderen Seite der Dualität noch taten, sondern es handelt sich um bestimmte komplexe Zahlen.

Im Kontrast zu der „völlig willkürlichen Anordnung“ der Primzahlen scheint den nichttrivialen „Dualzahlen“ ein sehr strenges Muster zu Grunde zu liegen: wie alle komplexen Zahlen können sie zunächst auf einer Ebene visualisiert werden, und die Riemannsche Vermutung sagt aus, dass die zu den Primzahlen gehörigen nichttrivialen „Dualzahlen“ innerhalb der Ebene alle auf einer gemeinsamen Geraden platziert sind. Sie tragen demnach vermutlich eine starke geometrische Symmetrie.

Die Gründe, weshalb ein Beweis der Riemannschen Vermutung bahnbrechend für die Mathematik wäre, sind vielseitig: Die geometrische Lage der nichttrivialen „Dualzahlen“ birgt Informationen zu der Verteilung der Primzahlen. Kennt man alle Dualzahlen, so kann damit sogar die exakte Verteilung der Primzahlen rechnerisch beliebig genau rekonstruiert werden (siehe unteres Bild zur Primzahlhäufigkeit). Durch das Dualitätsprinzip gehen also wechselseitig keine Informationen verloren. In theoretischer Hinsicht ließe sich die Lage auf einer gemeinsamen Geraden dadurch interpretieren, dass die Primzahlen möglichst gleichmäßig und damit pseudozufällig verteilt sind. Sie liegen also „alle bereits fest“, jedoch ist es schwierig, dem Verteilungsmuster einfache Notwendigkeiten abzuringen. Zum Beispiel kann in den Primfaktorzerlegungen der benachbarten Zahlen

bislang kein notwendiger Zusammenhang erkannt werden. Viele bisher nicht bewiesene Vermutungen der Zahlentheorie würden zudem aus dem Beweis der Riemannhypothese als „Zugabe“ direkt mit folgen. Dazu zählen auch verbesserte Primzahltests, die in der Kryptographie praktische Anwendungen finden.[4] Die Theorie der Riemannschen Vermutung führt darüber hinaus viele Gebiete der Mathematik zusammen. Tut dies eine Theorie, spricht dies für eine Form der Fundamentalität. Beispiel einer solchen fundamentalen Theorie ist der Ende des 20. Jahrhunderts bewiesene Modularitätssatz, der mit elliptische Kurven und Modulformen zwei auf den ersten Blick völlig verschiedene Theorien zusammenbrachte. Ein tieferes Verständnis der Primzahlen könnte auch neue Entwicklungen in der Quantenphysik nach sich ziehen. Wäre die Symmetrie unter den „Dualzahlen“ erfüllt, könnte dieses System zum Beispiel möglicherweise als Quasikristall aufgefasst werden.

Das Phänomen der Dualität lässt sich anhand einer berühmten anderen Zahlenfolge veranschaulichen, der Fibonacci-Folge 0, 1, 1, 2, 3, 5, 8, 13 … . Die Folge beginnt per Definition mit 0 und 1, und die Summe der beiden vorherigen Zahlen ergibt stets die folgende Zahl. In der Mathematik bezeichnet man solche Folgen auch als rekursiv. Die Fibonacci-Folge lässt sich damit implizit durch und mit definieren. Die Relation schlägt eine Brücke in die Algebra, wo sie in der Gleichung Ausdruck findet.[Anm. 1] Diese quadratische Gleichung kann durch die Mitternachtsformel gelöst werden, wobei man die Lösungen und erhält. Es ist dabei der negative goldene Schnitt, und dieser wie auch stehen in Dualität zur Fibonacci-Folge. Aus beiden Nullstellen rekonstruiert sich jeder Fibonacci-Wert über die exakte Formel

und aus der Fibonacci-Folge lässt sich andersherum der goldene Schnitt konstruieren durch . Die endliche Rekursion hinter den Fibonacci-Zahlen garantiert eine geringe mathematische Komplexität dieser Folge, und entsprechend „klein“ ist die Menge der „Dualzahlen“ . Die Primzahlen hingegen erfüllen keine endliche Rekursion, und ihre „genaue Zusammensetzung“ ist sehr kompliziert. Auch sie können, unter Ausnutzung der eindeutigen Primfaktorzerlegung natürlicher Zahlen, in einer Funktion kodiert werden. Bei diesem Prozess nimmt die charakteristische Eigenschaft der Primzahlen, die natürlichen Zahlen multiplikativ aufzubauen, eine analoge Rolle ein wie bei der Assoziation der Fibonacci-Folge mit . Die durch die Primzahlen gewonnene Funktion ist um einiges komplizierter, als die quadratische Funktion . Man bezeichnet sie als Riemannsche Zeta-Funktion, und ihre Nullstellen sind die zu den Primzahlen gehörigen „Dualzahlen“. Die Zeta-Funktion ist, im Gegensatz zu , keine rationale Funktion, kann also nicht durch eine endliche Abfolge der vier Grundrechenarten (Plus, Minus, Mal und Geteilt) aus dem Eingabewert berechnet werden. Sie hat unendlich viele Nullstellen, und die hohe Komplexität der Primzahlen drückt sich dadurch aus, dass folglich die Menge der „Dualzahlen“ unendlich groß ist.

Der Zahlentheoretiker Don Zagier fasste das Problem auf seiner am 5. Mai 1975 gehaltenen Antrittsvorlesung an der Universität Bonn wie folgt zusammen:

„Es gibt zwei Tatsachen über die Verteilung von Primzahlen […]: Die eine ist, daß die Primzahlen, trotz ihrer einfachen Definition und Rolle als Bausteine der natürlichen Zahlen, zu den willkürlichsten, widerspenstigsten Objekten gehören, die der Mathematiker überhaupt studiert. Sie wachsen wie Unkraut unter den natürlichen Zahlen, scheinbar keinem anderen Gesetz als dem Zufall unterworfen, und kein Mensch kann voraussagen, wo wieder eine sprießen wird, noch einer Zahl ansehen, ob sie prim ist oder nicht. Die andere Tatsache ist viel verblüffender, denn sie sagt just das Gegenteil, daß die Primzahlen die ungeheuerste Regelmäßigkeit aufzeigen, dass sie durchaus Gesetzen unterworfen sind und diesen mit fast peinlicher Genauigkeit gehorchen.“

Don Zagier[5]

Notation[Bearbeiten | Quelltext bearbeiten]

Es werden durchweg folgende Bezeichnungen verwendet:

  • , , , und bezeichnen die natürlichen, ganzen, rationalen, reellen bzw. komplexen Zahlen.
  • Die Notation für asymptotische Beschränktheit durch Landau-Symbole: Es bedeutet , dass (wobei meist ). Analog wird mit gebraucht, und mögliche Abhängigkeiten der absoluten Konstanten werden durch Eintragungen im Index gekennzeichnet. In etwa ist für alle . Ferner bedeutet sogar . Es bezeichnet hierbei den Limes superior.
  • Es bezeichnen durchgängig und den Real- bzw. Imaginärteil der komplexen Zahl .
  • Wie üblich ist durchgängig der natürliche Logarithmus von , und bzw. die natürliche Exponentialfunktion. Es bezeichnen den Integrallogarithmus und die Primzahl zählende Funktion.
  • Es bezeichnet die Riemannsche Zeta-Funktion und die Gammafunktion. Zudem wird mit reellen und geschrieben.
  • Es bezeichnen die Liouville-Funktion, die Möbius-Funktion und die Mangoldt-Funktion.

Bekannte Konzepte der Primzahlverteilung[Bearbeiten | Quelltext bearbeiten]

Die Unendlichkeit der Primzahlen[Bearbeiten | Quelltext bearbeiten]

Darstellung Euklids im Oxford University Museum

Bereits Euklid konnte zeigen, dass es unendlich viele Primzahlen gibt, weshalb die Liste 2, 3, 5, 7, 11 … aller Primzahlen niemals endet, genauso wie die Liste 1, 2, 3, 4 … aller natürlichen Zahlen niemals endet. Sein Resultat wird als Satz des Euklid bezeichnet.[6]

Der Satz des Euklid ist ein mathematischer Satz; seine Richtigkeit muss daher bewiesen werden. Ein mathematischer Beweis erfolgt durch eine Aneinanderreihung logisch wahrer Argumente, die auf Axiomen oder bereits bewiesenen Sätzen aufbauen. Ein Beweis der Unendlichkeit der Primzahlen kann in etwa so geführt werden:

Ist eine endliche Anzahl verschiedener Primzahlen gefunden, so bilde man deren Produkt. Anschließend addiere man das Ergebnis mit 1. Die dadurch entstandene Zahl ist nach Konstruktion durch keine Primzahl in der Liste teilbar. Da aber jede Zahl durch eine Primzahl teilbar ist, gibt es neben allen Primzahlen in der Liste eine weitere Primzahl.

Nachvollziehen lässt sich das Verfahren an folgendem Beispiel: Betrachtet man die Liste {2, 5, 11} von Primzahlen, so ist deren Produkt 2 · 5 · 11 = 110 durch 2, 5 und 11 teilbar. Damit kann 110 + 1 = 111 weder durch 2, 5 noch 11 teilbar sein, also gibt es eine weitere Primzahl, die sich von 2, 5 und 11 unterscheidet. In etwa teilt die Primzahl 3 die Zahl 111, und es gilt 111 = 3 · 37. Selbstverständlich ist die Listenlänge von drei Zahlen in diesem Beispiel willkürlich; man hat zum Beispiel

2 · 3 · 5 · 7 · 11 · 13 + 1 = 59 · 509,

und weder die Primzahlen 59 noch 509 sind in der Liste {2, 3, 5, 7, 11, 13} enthalten. Das Argument zeigt also, dass jede noch so lange Liste von Primzahlen unvollständig ist. Damit muss es unendlich viele Primzahlen geben.

Die Riemannsche Vermutung gibt eine quantitative Vorstellung von der Verteilung der Primzahlen, die über das bloße Wissen um deren Unendlichkeit sehr weit hinausgeht.

Eine Entdeckung Eulers[Bearbeiten | Quelltext bearbeiten]

Leonhard Euler (1753)

Im Laufe der Zeit wurden zahlreiche Beweise für die Unendlichkeit der Primzahlen gefunden, darunter von Christian Goldbach, Leonhard Euler und Paul Erdös. Besonders Eulers Entdeckungen waren ein Wegweiser für die kommende Entwicklung von einer elementaren, in der Tradition der alten Griechen stehenden, hin zu einer modernen Form der Zahlentheorie. Im Jahr 1737, während seiner ersten Zeit in Sankt Petersburg, untersuchte Euler einen neuartigen Zugang zu den Primzahlen und fand heraus, dass sie „verhältnismäßig dicht“ unter den natürlichen Zahlen verstreut sind. Genauer bewies er

Summiert man also nacheinander die Kehrwerte der Primzahlen zusammen, wird auf Dauer jede noch so große obere Schranke durchbrochen. Dies zeigt auf, dass Primzahlen eher „dicht“ unter den natürlichen Zahlen verstreut sind; zum Beispiel „dichter“ als die Quadratzahlen,[7] denn ebenfalls Euler zeigte

Quadratzahlen wachsen also langfristig schnell genug an, dass die Summe ihrer Kehrwerte den endlichen Wert 1,645 nicht überschreitet. Euler stand seiner Zeit nicht die mathematische Sprache zur Verfügung, diese Verschärfung des Euklidischen Satzes präzise zu interpretieren, und es gibt keinen Nachweis, dass er sich mit exakten Aussagen zur Verteilung von Primzahlen beschäftigte.[8] Allerdings hatte Euler bereits 1737 korrekterweise ohne Beweis behauptet, dass das Verhältnis , wobei die Anzahl der Primzahlen kleiner als bezeichnet, für wachsende gegen 0 strebt.[9]

Eulers Beweisstrategie nutzt das sog. Euler-Produkt. Dabei spielt die eindeutige Zerlegbarkeit natürlicher Zahlen in Primfaktoren eine Schlüsselrolle. Das Euler-Produkt steht in Zusammenhang zu einem Objekt, das bis heute in der Primzahlforschung benutzt wird, und in der modernen Mathematik als Riemannsche Zeta-Funktion bekannt ist. Die Zeta-Funktion spielt ebenfalls für die Riemannsche Vermutung eine zentrale Rolle. Die neuartige Leistung bestand darin, Fragen zu Primzahlen systematisch durch funktionale Zusammenhänge zwischen Zahlen zu attackieren. Euler gilt deswegen als Initiator der analytischen Zahlentheorie.[10]

Der Primzahlsatz[Bearbeiten | Quelltext bearbeiten]

Die bloße Unendlichkeit einer Teilmenge der natürlichen Zahlen sagt noch nicht allzu viel über deren Natur aus. Zum Beispiel gibt es unendlich viele gerade Zahlen 2, 4, 6, 8 … und unendlich viele Quadratzahlen 1, 4, 9, 16 …, jedoch weisen beide Folgen bei genauem Hinsehen ein unterschiedliches Verhalten auf. Während zum Beispiel die Differenz zweier aufeinanderfolgender gerader Zahlen stets 2 ist, nehmen die Abstände der Quadratzahlen immer weiter zu, etwa 4 - 1 = 3, 9 - 4 = 5 und 16 - 9 = 7. Beide Folgen haben jedoch ein sehr reguläres Muster gemein, d. h., sie können über einfache Rechenoperationen bestimmt werden. Zum Beispiel ist die n-te gerade Zahl einfach 2n. Im Gegensatz dazu ist bis heute kein einfaches Muster unter der Folge 2, 3, 5, 7, 11, …, 59, 61, 67, … der Primzahlen entdeckt worden. Zum Beispiel gibt es kein „schnelles“ Verfahren, die n-te Primzahl zu berechnen. Es zeigt sich jedoch, dass es auf lange Sicht Muster unter den Primzahlen zu erkennen gibt. Betrachtet man also haufenweise Primzahlen zur gleichen Zeit, so können durch „Mittelwertbildung“ reguläre Strukturen erkannt werden.

Das Prinzip hinter dieser Tatsache ist von statistischer Natur. Statistik bedeutet hierbei, aus einer großen Menge von Daten Muster herauszufiltern, obwohl das „exakte Verhalten“ der einzelnen Datenobjekte (oder Subjekte) sehr kompliziert sein kann. In etwa sind alle Menschen sehr komplex, doch im Verhalten sehr vieler Menschen zur gleichen Zeit können Muster oftmals erkannt werden, die dann in Form von Wahrscheinlichkeiten auf Individuen zurück schließen lassen. Also geht es bei diesen Überlegungen zunächst um die Frage, wie die Verteilung der Primzahlen zu verstehen ist, mit anderen Worten, wie viele Primzahlen unterhalb einer vorgegebenen Schranke zu erwarten sind. Zum Beispiel sind nur 4 Primzahlen, nämlich 2, 3, 5 und 7, kleiner als die Zahl 10. Im Falle der oberen Schranke 150 gibt es schon 35 kleinere Primzahlen, nämlich

2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89, 97, 101, 103, 107, 109, 113, 127, 131, 137, 139, 149.
Der in blau unterlegte Flächeninhalt zwischen dem Graphen der Funktion und der t-Achse im Intervall von 50 bis 150 schätzt die Anzahl der Primzahlen, die zwischen 50 und 150 liegen. Wegen der abgeflachten Kurve mit etwa 0,2 Längeneinheiten Höhe und einer Breite von 150-50 = 100 Längeneinheiten, schätzt „das bloße Auge“ einen Wert von 0,2 · 100 = 20 Primzahlen zwischen 50 und 150.
Schaubilder der Primzahl zählenden Funktion (blau) und des Integrallogarithmus (orange) im Bereich 3 bis 1000

Dabei sind die insgesamt 20 Primzahlen zwischen 50 und 150 in grün markiert. Eine Frage der Zahlentheorie ist, ob es ein universelles und einfaches Prinzip gibt, zumindest zu schätzen, wie viele Primzahlen es unter einer gegebenen Schranke gibt. Erkannt wurde ein solches erstmals in den Jahren 1792/93 vom damals 15-jährigen Carl Friedrich Gauß,[11] nachdem dieser Logarithmentafeln studiert hatte. Gauß vermutete, dass die Anzahl aller Primzahlen von 2 bis zu einer großen Zahl x ungefähr dem Flächeninhalt zwischen der t-Achse und der Funktion im Intervall von 2 bis entspricht. Dabei ist der natürliche Logarithmus. Es gilt also die Integral-Näherung[12]

Anzahl der Primzahlen bis

und allgemeiner für :

Anzahl der Primzahlen zwischen und

Zum Beispiel gilt

womit sich die Formel wegen des exakten Wertes von 20 Primzahlen zwischen 50 und 150 (siehe oben in grün) ca. um den Wert 2 verschätzt. Das Integral von kann nicht elementar geschlossen berechnet werden, da der kehrwertige Logarithmus keine elementare Stammfunktion besitzt. Es definiert somit eine „eigenständige“ Funktion, die auch als Integrallogarithmus bekannt ist:

Bezeichnet die exakte Anzahl der Primzahlen unterhalb der Schranke , so wird die obere Aussage wie folgt präzisiert:

Für wachsende Werte von wird also der obere Quotient immer näher gegen 1 streben, also der relative Fehler der Schätzung gegen 0 gehen. Auch bei der „Statistik der Primzahlen“ gilt demnach der Grundsatz, dass größer werdende Datenmengen prozentual eine zuverlässigere Prognose erlauben. Gauß legte keinen mathematischen Beweis für diese Vermutung über die Primzahlverteilung vor, und es dauerte noch über 100 Jahre, bis ein solcher – unabhängig voneinander von Jacques Hadamard und Charles-Jean de La Vallée Poussin – im Jahr 1896 erbracht wurde.[13] Dabei bedeutet Beweis nicht, dass alle erdenklichen Werte durchprobiert wurden, was bei unendlich vielen Zahlen unmöglich ist, sondern dass ein auf den mathematischen Axiomen basierendes logisches Argument den Sachverhalt in voller Allgemeinheit belegt. Das damit gezeigte Theorem wird als Primzahlsatz bezeichnet.[12]

Wegen (für ) ist der Primzahlsatz deutlich stärker als der Satz des Euklid, da er nicht nur die Unendlichkeit der Primzahlen impliziert, sondern auch eine quantitative Idee für deren Verteilung gibt. Im Gegensatz zum Satz des Euklid ist sein Beweis deutlich anspruchsvoller. Klassischerweise wird dieser mit Methoden der komplexen Analysis geführt, wobei Taubersätze ein wichtiges Hilfsmittel sind. Es existieren jedoch auch elementare Beweise, etwa von Paul Erdös und Atle Selberg aus dem Jahr 1949,[14][15] aber auch moderne, wie zum Beispiel von Florian K. Richter aus dem Jahr 2021.[16] Das Wort „elementar“ bezieht sich hierbei primär auf die Methodik und nicht den Schwierigkeitsgrad.[17] Die Riemannsche Vermutung ist wiederum eine weitreichende Verbesserung des Primzahlsatzes.

Varianten der Problemstellung[Bearbeiten | Quelltext bearbeiten]

Die Riemannsche Vermutung stellt eine starke Verschärfung des Primzahlsatzes dar. Das bedeutet, dass sie neben der von Logarithmen stammenden Verteilung der Primzahlen eine sehr exakte quantitative Beschreibung der Abweichungen von der im Primzahlsatz vorhergesagten Integralschätzung postuliert. Sie ordnet das Verhalten der Primzahlen in den Pseudozufall ein. Es existieren einige unterschiedliche und dennoch äquivalente Sichtweisen auf das Problem, die im Folgenden angeführt werden.

Der absolute Fehler im Primzahlsatz[Bearbeiten | Quelltext bearbeiten]

Wie oben bezeichnet die exakte Anzahl von Primzahlen unterhalb der Schranke und den Integrallogarithmus. Der absolute Fehler im Primzahlsatz bezeichnet die Differenz . Dabei gewährleistet der Absolutbetrag, dass nur positive Größen im Ergebnis entstehen, da man sich zunächst nur für die Größe des Fehlers und nicht dessen Vorzeichen interessiert. Der absolute Fehler muss im Gegensatz zum relativen Fehler

keinesfalls gegen 0 gehen. Der Quotient aus und strebt mit wachsendem gegen 1, da Quadrate schneller wachsen als lineare Terme, nicht aber die (sogar unbeschränkte) Differenz beider Terme. Die Riemannsche Vermutung macht eine detaillierte Aussage über den absoluten Fehler im Primzahlsatz.

Vermutung: Der absolute Fehler im Primzahlsatz ist „im Wesentlichen“ von der Ordnung einer Quadratwurzel.[18] Genauer gibt es eine Konstante , sodass für alle Werte  die Abschätzung  wahr ist, bzw. kürzer  für .
Der absolute Fehler (hier ohne Beträge) unterliegt starken Schwankungen. In manchen Regionen ist die Näherung durch den Integrallogarithmus damit genauer, in manchen weniger genau.

Dabei bezeichnet den natürlichen Logarithmus von . Veranschaulicht werden kann diese Aussage wie folgt: Die Quadratwurzel halbiert ungefähr die Anzahl der Ziffern einer Zahl vor dem Komma (wegen in der Hochzahl!). Zum Beispiel hat 100 000 000 insgesamt 9 Ziffern vor dem Komma, aber seine Quadratwurzel 10 000 nur noch 5. Trifft die Riemannsche Vermutung zu, so sollte die Integralschätzung des Primzahlsatzes langfristig ungefähr in der „oberen Hälfte“ der Dezimalziffern vor der Null mit dem tatsächlichen Ergebnis übereinstimmen. Exakt berechnet wurde zum Beispiel , es gibt also ca. 18,4 Trilliarden Primzahlen unterhalb einer Quadrillion.[19][20] Ferner gilt:[18]

Von den insgesamt 23 Stellen vor dem Komma des exakten Wertes gibt es eine Übereinstimmung in den 12 ersten Ziffern mit dem Integrallogarithmus, oben in Blau markiert. Ab der ersten Abweichung sind die Ziffern vor dem Komma rot. Dabei ist 12 in etwa die Hälfte von 23. Diese Berechnung stützt also die Riemannsche Vermutung. Die logarithmischen Terme in der Abschätzung sowie bei sind im Vergleich zur Quadratwurzel so klein, dass dies nichts Wesentliches an dieser ungefähr hälftigen Aufteilung ändert.

Der Mathematiker Lowell Schoenfeld konnte einen passenden Wert für die zunächst unbestimmte Konstante in der Riemannschen Vermutung für hinreichend große Werte genau berechnen: Sollte diese zutreffen, so gilt[21]

falls

Dabei bezeichnet die Kreiszahl. Ist die Vermutung also wahr, kann in oberer Formulierung im Wesentlichen bereits gesetzt werden.

Obwohl der Term für wachsende Werte immer weiter ansteigt, und damit der absolute Fehler auch beliebig anwachsen kann, besagt die Riemannsche Vermutung, dass dieser relativ betrachtet sehr klein ist, da

fast mit der Geschwindigkeit einer kehrwertigen Quadratwurzel gegen 0 strebt. Wie Jürgen Neukirch bemerkte, weist dies auf eine besondere „Glätte“ in der bildlichen Darstellung der Primzahlverteilung hin, wenn man die Skala hochsetzt.[22]

Eine zu verwandte und in der Theorie der Riemannschen Vermutung natürlichere Treppenfunktion wird wie folgt konstruiert. Man startet bei Null, und jedes Mal, wenn eine Primzahlpotenz erreicht wird, springt die Treppenfunktion um den natürlichen Logarithmus der betroffenen Primzahl nach oben. Zum Beispiel ist

und .

Allgemein gilt die Definition

mit der Mangoldt-Funktion . Die Riemannsche Vermutung kann nun auch wie folgt formuliert werden.

Vermutung: Die Abweichung der Funktion  von , Letzteres graphisch der Winkelhalbierenden des 1. Quadranten entsprechend, ist „im Wesentlichen“ von der Ordnung einer Quadratwurzel. Es gibt eine Konstante , sodass  für alle , bzw. kürzer  für .[23]

Obwohl die Definition der Funktion zunächst komplizierter ist, ist ihre Betrachtung aus mathematischer Sicht natürlicher. Ein Grund dafür ist der verhältnismäßig einfache Zusammenhang zwischen der Mangoldt-Funktion und der sog. Riemannschen Zeta-Funktion, die, auch aus Gründen der Einfachheit und Übersicht, ein essentielles Objekt im Themenkreis der Riemannhypothese ist (siehe unten).[24]

Wahrscheinlichkeitstheoretische Interpretation[Bearbeiten | Quelltext bearbeiten]

Die Riemannsche Vermutung kann probabilistisch interpretiert werden. Dies geht auf den Mathematiker Arnaud Denjoy zurück.[25]

Der zentrale Grenzwertsatz[Bearbeiten | Quelltext bearbeiten]

Um den Zusammenhang zwischen den Primzahlen auf der einen Seite und der Wahrscheinlichkeitstheorie auf der anderen Seite zu verstehen, wird der zentrale Grenzwertsatz benötigt. Der einfachste Vergleich beider Konzepte entsteht über die Betrachtung eines fairen Münzwurfes. Es wird eine faire Münze mit den möglichen Ergebnissen „Kopf“ und „Zahl“ mehrmals hintereinander geworfen. In der idealen Situation ist das Ergebnis jeden Wurfs an sich absolut zufällig und außerdem hängen die Ergebnisse der Würfe nicht voneinander ab. Wurde also zunächst Kopf geworfen, soll dies unerheblich dafür sein, ob wieder Kopf oder auch Zahl folgt. Die in dieser Situation falsche Annahme, nach einer langen Strecke von „Kopf“-Würfen seien „Zahl“-Würfe wahrscheinlicher, ist indes als Spielerfehlschluss bekannt („der Zufall hat kein Gedächtnis“).

lili rere
Der faire Münzwurf zählt zu den einfachsten Zufallsexperimenten. Die linke Seite zeigt „Kopf“ der 1-Euro-Münze aus Österreich, die rechte Seite „Zahl“.

Unter Annahme absoluten Zufalls bei gleichen Wahrscheinlichkeiten und außerdem Unabhängigkeit der einzelnen Würfe kann bei häufigem Wiederholen eines Münzwurfes ein bestimmtes Muster beobachtet werden. Am besten wird dies veranschaulicht, wenn die Ereignisse „Kopf“ und „Zahl“ durch die Zahlen bzw. ersetzt werden und nach jeder Serie von Würfen die Summe aller Wurfergebnisse gebildet wird. Dies entspricht dann der Bilanz in einem Glücksspiel, in dem bei Kopf 1 Euro gewonnen und bei Zahl 1 Euro verloren wird. Werden „Kopf“ – „Kopf“ – „Zahl“ – „Zahl“ – „Kopf“ geworfen, liegt der Gewinn bei 1 Euro, denn

Gleichzeitig entspricht dies der Differenz aus geworfenen „Köpfen“ und „Zahlen“. Bei einer sehr großen Anzahl an Würfen, etwa 40 000, ist die Annahme naheliegend, dass jeweils ungefähr 20 000 Mal „Kopf“ und „Zahl“ geworfen wird, da beide Ergebnisse exakt gleiche Wahrscheinlichkeit haben. Dies hätte als mögliche Konsequenz, dass sich die Gewinnbilanz in etwa beim Wert Null „einpendelt“, da angenommen wurde, dass der Wert in etwa so häufig summiert wurde wie . Auf der anderen Seite ist es bereits in diesen Größenordnungen extrem unwahrscheinlich, dass etwa ein Ergebnis wie genau 20 000-mal Kopf und genau 20 000-mal Zahl auftritt, was einer Gewinnbilanz von exakt 0 entspräche. Es ist eher damit zu rechnen, dass der Zufall zu „Gunsten“ von „Kopf“ oder „Zahl“ einen gewissen „Ausreißer“ verursachen wird. Das bedeutet, dass nach der Wurfserie sehr wahrscheinlich eine gewisse Größe häufiger gefallen sein wird als die andere, obwohl zu Beginn gleiche Wahrscheinlichkeiten vorlagen. Die Größe dieses „Ausreißers“ ist Gegenstand des zentralen Grenzwertsatzes: Bezeichnet die Zufallsgröße mit dem Wert des -ten Wurfes, so errechnet sich der Gewinn des oberen Spiels mit Münzwürfen durch

Der abschnittsweise Flächeninhalt unter der Glockenkurve kodiert die Wahrscheinlichkeit, dass der Kontostand nach einer langen Serie von Münzwürfen im betroffenen Intervall (inklusive des Faktors „Wurzel der Wurfzahl“) liegt. Im Fall des beschriebenen Spiels ist .

Beginnt der Spieler mit 0 Euro auf dem Konto, kann auch als Kontostand nach Würfen interpretiert werden. Der zentrale Grenzwertsatz trifft eine Aussage über das zu erwartende Verhalten des Gewinns , wenn beliebig groß wird. Ihm zufolge liegt die Größenordnung von stets im Umfeld der Quadratwurzel der Wurfanzahl ; genauer gilt für die Wahrscheinlichkeit, dass , die Näherung[26][Anm. 2]

Dem Integral liegt die Verteilungsfunktion der Standardnormalverteilung zugrunde. Wird zum Beispiel eine Münze 40 000 Male hintereinander geworfen, so ist die Wahrscheinlichkeit, dass der Kontostand am Ende im Bereich liegt wegen ungefähr 68,2 % (siehe Bild rechts, die Abweichung ist hier ). Negative Zahlen auf dem Konto werden als Schulden verstanden.

Der zentrale Grenzwertsatz findet anschaulich den „Mittelweg“ zwischen zwei extremen und jeweils äußerst unwahrscheinlichen Ereignissen: einmal, dass (fast) genau so häufig „Kopf“ wie „Zahl“ geworfen wird, oder zweitens, dass „sehr viel“ häufiger „Kopf“ als „Zahl“ geworfen wird oder umgekehrt. Es stünde ein zu reguläres Verteilungsmuster mit der geforderten Unabhängigkeit der Würfe in Konflikt, und ein zu starkes Abweichen vom Mittelwert 0 mit der ebenfalls geforderten gleichen Wahrscheinlichkeit. Die Bestimmung der genauen Größenordnung ist kein einfaches Unterfangen, und Gegenstand des Beweises des zentralen Grenzwertsatzes, der mit Methoden der höheren Analysis geführt wird.[27]

Wegen der über die Normalverteilung gegebenen Wahrscheinlichkeiten gilt insbesondere für jede Zahl :

mit Wahrscheinlichkeit 100 % (in einem asymptotischen Sinn).

Dabei ist die Potenzschreibweise zu beachten.

Primzahlen und Pseudozufall[Bearbeiten | Quelltext bearbeiten]

Eine „Verbindung“ zwischen Primzahlen und dem wiederholten Münzwurf kann wie folgt hergestellt werden. Es werden nacheinander die natürlichen Zahlen betrachtet; und zwar in deren eindeutiger Primfaktorzerlegung. Jedes Mal, wenn die Anzahl der Faktoren gerade ist, wird dies als gewertet, und wenn sie ungerade ist, als . Über dieses Prozedere lässt sich eine Funktion auf den natürlichen Zahlen definieren:

, wobei Anzahl der Primfaktoren von .

Diese wird auch als Liouville-Funktion bezeichnet, benannt nach Joseph Liouville.[28] Zu beachten ist, dass ein Produkt mit einer ungeraden Anzahl aus lauter Faktoren −1 wieder −1 ist, und eines mit einer geraden Anzahl an Faktoren −1 genau +1, da Minus mal Minus Plus ergibt. Zum Beispiel hat die Zahl insgesamt fünf Primfaktoren, denn

und daher gilt . Die folgende Tabelle zeigt den Sachverhalt für einige weitere Werte von .

n 1 2 3 4 5 6 7 8 9 10 11 12 236 237 238 239 174.635.999 174.636.000 174.636.001 174.636.002
Primfaktorzerlegung 2 3 22 5 2·3 7 23 32 2·5 11 22·3 22·47 3·79 2·7·17 239 29·379·15.889 25·34·53·72·11 174.636.001 2·17·71·73·991
Faktoranzahl Ω(n) 0 1 1 2 1 2 1 3 2 2 1 3 3 2 3 1 3 15 1 5
λ(n) = (–1)Ω(n) 1 −1 −1 1 −1 1 −1 −1 1 1 −1 −1 −1 1 −1 −1 −1 −1 −1 −1

Das genaue Verhalten der Primfaktorzerlegungen ist, für größer werdende Zahlen, ohne eine sehr aufwändige Berechnung nicht vorherzusagen und unterliegt starken Schwankungen. Die Riemannsche Vermutung besagt, dass die von der Liouville-Funktion definierte Folge pseudozufällig ist.[29][28] Sie ist zwar determiniert, kann also theoretisch berechnet werden und ihre Werte „liegen alle bereits fest“, dennoch ähnelt sie in ihren Eigenschaften einem sogenannten Random Walk.[30] Damit, so die Vermutung, sollten sich die aufaddierten Werte der Liouville-Funktion auf lange Sicht ungefähr wie ein „typischer Verlauf“ des oben beschriebenen Glücksspiels mit einem fairen Münzwurf verhalten.[28] Es kann für

festgehalten werden:

Vermutung: Es gilt, im Sinne des zentralen Grenzwertsatzes,  für jedes beliebige . Äquivalent ist die Aussage, dass es für alle  eine Konstante  gibt, sodass die Ungleichung  für alle  gilt, kurz .[31]

Diese Form der Pseudozufälligkeit sagt anschaulich aus, dass sich Primzahlen in ihren Eigenschaften, wie Verteilung und Primfaktorzerlegung, „möglichst zufällig“ und „möglichst unabhängig“ verhalten. So soll zum Beispiel die Frage, ob sich eine zufällig gewählte Zahl in eine gerade oder in eine ungerade Anzahl an Primfaktoren zerlegen lässt, für wachsende Größe von mit „gleicher Wahrscheinlichkeit“ beantworten lassen.[28] Gleichzeitig sollen die Werte und für wachsende Werte „unabhängig“ sein. Also soll es keine einfache Möglichkeit geben, aus dem Verhalten des einen Wertes, das Verhalten des anderen zu ermitteln. Betrachtet man zum Beispiel

und den Nachfolger

so ist nicht unmittelbar ersichtlich, wie die Anzahlen der Primfaktoren kausal zusammenhängen.

Wäre die Riemannsche Vermutung falsch, so gäbe es ein Ungleichgewicht in der Primzahlverteilung in dem Sinne, dass es zum Beispiel streckenweise unnatürlich viel gehäufter Zahlen mit einer geraden Anzahl an Primfaktoren, wie 10, 14, 25, 132, gäbe, als Zahlen mit einer ungeraden Anzahl an Primfaktoren, wie 7, 8, 12, 18 und 125. Das Scheitern der Riemannschen Hypothese würde die Verteilung der Primzahlen durcheinander bringen.[32]

Analog kann die Riemannhypothese auch für die Möbius-Funktion formuliert werden. Diese nimmt für Zahlen, die in eine ungerade bzw. gerade Anzahl paarweise verschiedener Primzahlen zerfallen, den Wert bzw. an, und wird für Zahlen, die mehrfach durch denselben Primteiler teilbar ist, . Es ist also zum Beispiel , und , da im letzten Fall die 3 mehr als einmal auftauchte.

Die Riemannsche Vermutung trifft genau dann zu, wenn für alle  die Beschränkung  für  erfüllt ist.

Auch hier wird also eine Form der Pseudozufälligkeit vermutet.

Der Begriff der „Zufälligkeit“ unter den Primzahlen ist bis heute in erster Linie auch in Fachkreisen eine Anschauung, und bisher weder vollständig verstanden noch rigoros beschrieben worden. Heuristisch lassen sich einige wichtige Probleme, wie die Bestätigung der Goldbachschen Vermutung, aus dieser Eigenschaft herleiten, jedoch führt die gleiche Heuristik in anderen Fällen zu Widersprüchen.[33][34]

Der Weg über unendliche Reihen[Bearbeiten | Quelltext bearbeiten]

Um Fragen zu Primzahlen mit Mitteln der Analysis angreifen zu können, sind unendliche Reihen ein erstes Werkzeug.

Allgemeines zu Reihen[Bearbeiten | Quelltext bearbeiten]

Unter einer Reihe versteht man, veranschaulicht, eine niemals endende Summe von Zahlen. Dies können reelle, aber auch komplexe Zahlen sein. Die Dezimalschreibweise einer reellen Zahl kann als Reihe aufgefasst werden, etwa

oder auch

mit der Kreiszahl . Die durch die Punkte angedeuteten Summen enden niemals, da die Dezimalentwicklung von periodisch und die Kreiszahl irrational ist. Es gibt Reihen, deren Wert nicht als Zahl darstellbar ist,

aber auch solche, die gegen einen Grenzwert konvergieren (wie die oberen Beispiele mit Grenzwerten bzw. ). Reihen wie , die nicht konvergieren, nennt man divergent. Veranschaulichend gesagt kann eine Reihe nur dann konvergieren, falls die Glieder „schnell genug gegen 0 streben“. Aber nicht jede Reihe, deren Glieder gegen 0 streben, konvergiert, wie man an der harmonischen Reihe

sieht.

Illustrierte Konvergenz der geometrischen Reihe für gegen den Wert

Einige Reihen spielen eine ganz besondere Rolle in der Mathematik, zum Beispiel die geometrische Reihe, die aufgrund der Euler-Produkte auch im Kontext der Riemannhypothese bedeutsam ist: Das Prinzip ist, zu einer Zahl alle natürlichen Potenzen aufzuaddieren. Man erhält dann

Es ist also zu jedem mit möglich, den Grenzwert der geometrischen Reihe geschlossen anzugeben. Es handelt sich auch um ein erstes Beispiel, dass eine Funktion durch eine Reihe definiert ist: man hat

und die Reihenglieder hängen sämtlich von ab. Die geometrische Reihe ist damit das Beispiel und , wobei für den ersten Summanden die Regel (und formal ) zu beachten ist.

Der Majorantentest und partielle Summation[Bearbeiten | Quelltext bearbeiten]

Die Bestimmung des Grenzwertes einer Reihe ist im Allgemeinen nicht einfach, doch in manchen Fällen ist bereits die Frage der Konvergenz schwer zu beantworten. In der Geschichte der Mathematik wurden Kriterien entwickelt, zu entscheiden, ob gewisse Reihen konvergieren oder nicht. Eines davon ist der Majorantentest: Dieser basiert auf der einfachen Überlegung, dass eine unendliche Summe nicht-negativer Zahlen, die nach oben beschränkt ist, bereits konvergieren muss. Ist also eine Zahlenfolge und für alle , so gilt:

konvergiert konvergiert.

Anschaulich gehen die Werte für Konvergenz schnell genug gegen 0, weshalb es wegen auch die Werte tun müssen. Eine wichtige Folgerung dieses Prinzips ist, dass aus der Konvergenz der Reihe über die Absolutbeträge notwendigerweise schon die Konvergenz der Reihe folgt. Eine besonders wichtige Majorante ist die Reihe

die für reelle Zahlen konvergiert, was mit dem Integralkriterium gesehen werden kann. Sie kann dazu dienen, die Konvergenz sog. Dirichlet-Reihen nachzuweisen.

Niels Henrik Abel

Eine andere Technik betrifft den Umgang mit Reihen der Form

Dabei werden die Folgen und „separiert“:

wobei , sofern .

Dieser Umordnungstrick geht auf den Mathematiker Niels Henrik Abel zurück und wird als partielle Summation bezeichnet. Rückwirkend bestätigen lässt sich dies durch sukzessives Ausmultiplizieren und Verrechnen der Terme. Dieser Trick kommt vor allem dann zum Einsatz, wenn die Zahlen „schwanken“ (etwa ständige Vorzeichenwechsel), womit deren Summen verhältnismäßig klein sind, während die Zahlen sukzessive kleiner werden, da dann die Differenzen eventuell viel schneller gegen Null streben als die selbst. Die notwendige Bedingung besagt ihrerseits, dass das Abklingen der gegen Null das Wachstum des Terms dominiert.

Zusammenfassend lässt sich, sofern die Nebenbedingung erfüllt ist, mit und folgende Variante des Majorantentests anführen:[35]

konvergiert konvergiert konvergiert.

Die Riemannsche Vermutung und Reihenkonvergenz[Bearbeiten | Quelltext bearbeiten]

Im Rahmen der Riemannhypothese ist die Reihe

von Interesse, wobei die Liouville-Funktion bezeichnet. Diese ist jedoch nicht konvergent, da die nicht gegen Null streben. Allerdings kann man den Summanden weitere Terme hinzufügen, die dann Konvergenz erzwingen. Hängen die hinzugefügten Terme noch von einer Variablen ab, kann aus der zu untersuchenden Folge eine Funktion erzeugt werden. Etwa ist auch

nicht konvergent, doch betrachtet man die zugehörige Potenzreihe, ergibt sich für die Funktion

.

Wie die Primzahlen selbst schöpft die Liouville-Funktion Struktur aus Gesetzen multiplikativer Art. Es gilt das Gesetz , sie ist also eine streng multiplikative Funktion. Diese Eigenschaft bietet mathematisch viele Vorteile und muss daher für die weitere Analyse erhalten bleiben. Statt also Terme mit konstanter Basis und veränderlichem Exponenten hinzuzufügen, werden Ausdrücke mit veränderlicher Basis und konstantem Exponenten in Betracht gezogen. Mit den Potenzgesetzen folgt damit

und die Multiplikativität bleibt beim Übergang erhalten. Historisch bedingt werden die Exponenten mit statt bezeichnet und man nennt den resultierenden Reihentyp auch Dirichlet-Reihe. Dirichlet-Reihen können mit partieller Summation gut analysiert werden: Es sind Potenzfunktionen in , und durch Nehmen der Differenzen werden diese um den Faktor kleiner:

(zum Beispiel wird aus eine lineare Funktion, und dieses Prinzip überträgt sich von auf beliebige Exponenten).

Dabei bedeutet das Zeichen , dass die linke Seite bis auf einen von abhängigen aber von unabhängigen Faktor stets kleiner ist als die rechte Seite. Der zusätzliche Faktor macht den Term um eine Potenzgrößenordnung kleiner als . Setzt man weiter mit der Liouville-Funktion, so haben diese Vorzeichenwechsel. Die Häufigkeit des Wegkürzens der Terme innerhalb steht mit der Anzahl der Zahlen mit gerader bzw. ungerader Primfaktoranzahl unterhalb in direktem Zusammenhang, und die Riemannsche Vermutung (RV) besagt für alle (siehe oben). Setzt man diese voraus, gilt für alle die Nebenbedingung und es folgt für eben diese mit Majorantentest und partieller Summation:

konvergiert.

Im letzten Schritt kann so klein gewählt werden, dass wird, etwa durch . Die gleichen Überlegungen gelten für die Möbius-Funktion. Daraus motiviert sich:

Vermutung: Die Reihen  bzw.  konvergieren für alle .

Mit folgert man für mit dem Majorantentest

weshalb die betroffene Reihe hier „trivialerweise“ konvergiert. Gleiches gilt für die Möbius-Funktion. Dieses einfache Verfahren ist für nicht mehr möglich. Bereits der Fall ist schwierig und fruchtet durch eine zahlentheoretische Folgerung: Aus der Konvergenz der Reihe

gegen den Grenzwert 0 kann der Primzahlsatz gefolgert werden. Dass der Grenzwert tatsächlich 0 ist, fällt als „Beigabe“ beim Beweis der Konvergenz mit heraus.[36] Über die Fälle ist bis heute nichts bekannt. In diesem Sinne ist die Riemannsche Vermutung auch in dieser Hinsicht eine deutliche Verschärfung des Primzahlsatzes.

Formulierung über die Holomorphie von Dirichlet-Reihen[Bearbeiten | Quelltext bearbeiten]

In ihrer ursprünglichen Fassung ist die Riemannsche Vermutung zunächst kein Problem der Zahlentheorie, sondern ein Problem der komplexen Analysis. Die komplexe Analysis beschäftigt sich mit den Eigenschaften holomorpher Funktionen, sowie sich die klassische (reelle) Analysis mit den Eigenschaften differenzierbarer Funktionen beschäftigt.

Die Riemannhypothese besagt unter anderem, dass die Dirichlet-Reihe der Liouville-Funktion

eine in einem „möglichst großen Bereich“ holomorphe Funktion darstellt. Dabei ist „großer Bereich“ näher zu spezifizieren. Ähnlich wie die Konvergenzfrage im Reellen misst die Holomorphie das Verhalten der Reihe , und ein großer Holomorphiebereich impliziert ein starkes gegenseitiges Wegheben der Terme in dieser Reihe.

Um Dirichlet-Reihen als holomorphe Funktionen zu sehen, müssen diese auch an komplexen Zahlen ausgewertet werden. Unter Verwendung der Formel von Euler, die imaginäre Zahlen im Exponenten sinnvoll interpretiert, gelingt dies für wie folgt:

Die Vorschrift im Komplexen für eine Dirichlet-Reihe lautet also

Wegen der Beschränktheit von Sinus und Kosinus für reelle Zahlen sieht man damit, dass sich das Verhalten von für festen Realteil aber veränderlichen Imaginärteil im Exponenten nur „geringfügig ändert“. Der Realteil von bestimmt die absolute Größe des Terms , während der Imaginärteil nur eine „Schwingung“ erzeugt, die in der komplexen Ebene als Drehung entlang des Einheitskreises verstanden werden kann. Genau genommen gilt . Bei wachsendem Realteil von nähern sich die Terme zunehmend der Null, weshalb die Konvergenzbedingungen „immer besser werden“. Unter anderem mit dieser Beobachtung kann eine bedeutende Eigenschaft für Funktionen gezeigt werden, die durch eine Dirichlet-Reihe definiert sind: Konvergiert eine Dirichlet-Reihe an einer Stelle , so tut sie das bereits an jeder Stelle mit , wobei an den Imaginärteil keine besonderen Bedingungen gestellt sind. Im Innern ihres Konvergenzbereichs stellt sie eine holomorphe Funktion dar.

Es folgt damit, dass Dirichlet-Reihen auf offenen Halbebenen der komplexen Ebene konvergieren und dort holomorph sind. Konvergiert eine Dirichlet-Reihe irgendwo, so gibt es ferner eine eindeutig bestimmte Zahl , die sogenannte Konvergenzabszisse, so dass die Dirichlet-Reihe für alle komplexen Zahlen mit konvergiert, und für alle mit divergiert. Über die Fälle kann keine allgemeine Aussage getroffen werden. Hiermit ergibt sich eine weitere Formulierung der Riemannhypothese. Ist die Reihe für alle konvergent, so auch für alle mit , und umgekehrt.

Vermutung: Die Reihen  und  konvergieren für alle  mit , und insbesondere ist die von der Liouville- bzw. Möbius-Funktion erzeugte Dirichlet-Reihe in der Halbebene  holomorph.

Für den Primzahlsatz wird lediglich die holomorphe Fortsetzbarkeit in den Bereich benötigt.[37] Über diese erste funktionentheoretische Fassung ist es möglich, den Zusammenhang zwischen der Primzahlverteilung und Nullstellen der sogenannten Riemannschen Zeta-Funktion zu formulieren.

Primzahlen und die Nullstellen der Zeta-Funktion[Bearbeiten | Quelltext bearbeiten]

Wie Bernhard Riemann bereits 1859 erkannte, besteht eine enge Verbindung zwischen Primzahlen und den Nullstellen einer bestimmen Funktion. Diese trägt den Namen Riemannsche Zeta-Funktion, und wird mit dem griechischen Buchstaben Zeta (klein) notiert; also . Es ist die Variablenbenennung im Kontext der Zeta-Funktion jedoch unüblich, da sie nicht nur reelle Zahlen entgegennimmt und abbildet, sondern auch komplexe Zahlen. Als Variable hat sich im Laufe der Zeit die von Riemann gewählte Benennung durchgesetzt, wobei (Sigma) der Realteil und der Imaginärteil von ist. Das Symbol bezeichnet wie üblich die imaginäre Einheit und erfüllt . Eine (komplexe) Nullstelle der Zeta-Funktion erfüllt die Gleichung .

Die Riemannsche Zeta-Funktion[Bearbeiten | Quelltext bearbeiten]

Der Funktionsgraph der Zeta-Funktion für reelle Argumente im Bereich mit

Die Riemannsche Zeta-Funktion wird in der Literatur als diejenige Dirichlet-Reihe definiert, deren Koeffizienten ausschließlich 1 sind, mit anderen Worten

Mit dem Majorantentest sieht man, dass die Reihe für alle Werte mit konvergiert. An der Stelle erhält man gerade die harmonische Reihe:

also gilt , damit ist die Konvergenzabszisse von , und die Dirichlet-Reihe wird die Zeta-Funktion nicht mehr für Zahlen mit darstellen. Für manche Werte im Konvergenzbereich konnten geschlossene Funktionswerte der Zeta-Funktion berechnet werden. So fand Leonhard Euler zum Beispiel

und

mit der Kreiszahl .

Für die Zahlentheorie ist es bedeutsam, die Zeta-Funktion auch in größeren Bereichen betrachten zu können als nur die um 1 verschobene rechte Halbebene. Es kann gezeigt werden, dass sie eine Fortsetzung besitzt, die auch für Zahlen definiert ist, für welche die Dirichlet-Reihe nicht mehr konvergiert. Lediglich der Wert ist weiterhin auszuschließen, für alle anderen komplexen Zahlen ist mit der Fortsetzung allerdings definiert. Die Fortsetzung ist für alle holomorph, und damit wegen des Identitätssatzes für holomorphe Funktionen bereits eindeutig bestimmt, da der Definitionsbereich wegzusammenhängend ist. Es gibt also weiterhin nur „die eine“ Zeta-Funktion. Hintergrund der Fortsetzungsmöglichkeit ist, dass das verwandte Integral

, falls ,

offenbar für alle fortgesetzt werden kann, mit komplexer Ableitung . Es sind also die Funktionen

und

„ähnlich genug“, dass aus den „guten Fortsetzungseigenschaften“ des Integrals auch die Fortsetzbarkeit von gefolgert werden kann, obgleich die mathematischen Details bei diesem Unterfangen weitaus technischer sind.

Eine weitere, auch für die Riemannsche Vermutung, bedeutsame Eigenschaft der Zeta-Funktion wurde bereits von Euler beobachtet, jedoch erst durch Riemann bewiesen. Die Zahlenwerte und stehen in enger Verbindung über die sogenannte Funktionalgleichung der Zeta-Funktion:[38]

Dabei ist die Gammafunktion und die Kreiszahl. Diese Gleichheit ist als global gültige Identität im Sinne des Beispiels , und nicht als Gleichung zu verstehen, wobei letztere nur für einige wenige Lösungen gelten könnte. Ebenfalls bemerkenswert ist, dass beide Terme in der Funktionalgleichung über den Variablenwechsel auseinander hervorgehen. Die Zeta-Funktion besitzt demnach ein Spiegelungsverhalten an der Geraden , die unter der Spiegelung unverändert bleibt.

Das Euler-Produkt[Bearbeiten | Quelltext bearbeiten]

Ihre zahlentheoretische Bedeutung erhält die Zeta-Funktion über das Euler-Produkt. Namensgeber Leonhard Euler entdeckte als erster diesen Zusammenhang, ohne jedoch dessen tiefere Bedeutung in vollem Umfang zu erkennen. Erst Bernhard Riemann konnte, da er die Zeta-Funktion als holomorphe Funktion in den komplexen Zahlen begriff, den Zusammenhang voll ausschöpfen. Hintergrund ist, dass für ein Studium der unendlich vielen Primzahlen alternativ ein einzelnes mathematisches Objekt analysiert werden kann, das Informationen zu jeder Primzahl in sich kodiert, und zwar gleichzeitig. Solche Objekte werden in der Zahlentheorie auch als globale Objekte bezeichnet. Genau ein solches Objekt ist die Riemannsche Zeta-Funktion.

Das Euler-Produkt ist eine alternative Darstellung der Zeta-Funktion im Konvergenzbereich der Dirichlet-Reihe. Als Formel geschrieben lautet es:

wobei .

Dabei ist das Produktzeichen, und das rechte Produkt erstreckt sich über genau alle Primzahlen. Für unendliche Produkte (nach Euklid gibt es unendlich viele Primzahlen) gelten ähnliche Anschauungen wie für Reihen, nur das die Faktoren („Glieder des Produktes“) im Laufe der Zeit gegen 1 streben müssen, falls das betroffene Produkt konvergieren soll, da Faktoren nahe 1, genau wie Summanden nahe 0, nur noch wenig am Zwischenwert ändern. Das Euler-Produkt ergibt sich aus der geometrischen Reihe sowie dem Fundamentalsatz der Arithmetik. Es ist andersherum eine analytische Formulierung der Tatsache, dass jede natürliche Zahl eine eindeutige Primfaktorzerlegung besitzt, wobei die Eindeutigkeit durch die im Zähler des Terms innerhalb der Zeta-Reihe ausgedrückt wird.

Für die detaillierte Herleitung  

Für die formale Herleitung des Euler-Produktes werden lediglich die geometrische Reihe (siehe oben), der Satz, dass jede natürliche Zahl genau eine Zerlegung als Produkt von Primzahlen besitzt, sowie Ausmultiplizieren von Klammern benötigt. Zu Beginn bewährt es sich, nur eine endliche Anzahl von Primzahlen im Produkt zu beachten. Entwickelt man jeden Term als eine geometrische Reihe , so ergibt sich im Falle nur einer Primzahl

wobei das Potenzgesetz zu beachten ist. Zur Rechten stehen genau die Zahlen, die ausschließlich Zweien in ihrer Primfaktorzerlegung haben, also die Zweierpotenzen. Verfährt man weiter mit den ersten zwei Primzahlen, ergibt sich

Multipliziert man beide Klammen aus, ergeben sich in der Summe alle Kombinationen von Termen der Form mit , es gilt also

und auf der rechten Seite stehen genau alle Terme , sodass nur Zweien und Dreien in seiner Primfaktorzerlegung hat. Beim Ausmultiplizieren wird jeder Summand der einen Klammer mit einem Summand der anderen Klammer verrechnet, und das in jeder Kombination, für sind die entsprechenden Terme in Rot markiert. Auf ähnliche Weise findet man, dass zu der entsprechenden Dirichlet-Reihe korrespondiert, in der alle Zahlen mit Primfaktorzerlegung auftauchen, und so weiter. Entsprechend gilt für allgemein die ersten Primzahlen

Nun kann man in dieser Formel gegen Unendlich laufen lassen, und erhält

da jede Zahl genau eine Zerlegung besitzt.

Die ersten trivialen Nullstellen der Zeta-Funktion. Diese sind bereits im Reellen sichtbar.

Eine wichtige Folgerung des Euler-Produktes für die Analysis der Zeta-Funktion ist, dass für alle gilt. Dies ist eine Konsequenz einer Erweiterung des Satzes vom Nullprodukt für unendliche Produkte: keiner der Faktoren des Euler-Produktes ist für irgendeinen Eingabewert aus diesem Bereich Null, also wird es auch nicht im Grenzwert Null sein. Weitaus nichttrivialer ist die Tatsache, dass das Euler-Produkt, im Gegensatz zur Dirichlet-Reihe, auch auf der Geraden , mit Ausnahme von , an Gültigkeit behält. Es gilt[39]

was die Nullstellenfreiheit von im gesamten Bereich zur Folge hat. Als eine Folgerung der Funktionalgleichung ergibt sich, dass die einzigen Nullstellen von außerhalb des sog. kritischen Streifens die trivialen Nullstellen

sind. Alle anderen Nullstellen bezeichnet man als nichttrivial, und diese liegen allesamt im kritischen Streifen.[40]

Der Zusammenhang mit der Liouville- und der Möbius-Funktion[Bearbeiten | Quelltext bearbeiten]

Der große Nutzen des Euler-Produktes besteht darin, dass sich mit seiner Hilfe einfache Verbindungen zwischen der Zeta-Funktion und zahlentheoretischen Funktionen, wie der Liouville-Funktion, aufstellen lassen. Diese ist eine vollständig multiplikative Funktion, also gilt für alle natürlichen Zahlen und , da das Produkt genau Primfaktoren hat, aber . Über die verallgemeinerte Form des Euler-Produktes für vollständig multiplikative Funktionen ergibt sich damit[41][42]

Für die detaillierte Herleitung  

Zunächst betrachtet man den Term

Wegen Punkt vor Strich scheint eine weitere Umformung dieses Termes in Summenform (= Striche) vergebens. Im Gegensatz dazu können Produkte (= Punkte) in Zähler und Nenner manipuliert und verrechnet werden. Man erhält mit dem Euler-Produkt

Im Schritt wurde dabei die Regel Primzahl für Primzahl angewendet, und in Schritt der Doppelbruch aufgelöst. Mit der dritten binomischen Formel erhält man

und folglich

wobei sich die Terme in rot kürzten. Das zusammenfassende Resultat

lässt sich erneut mit der geometrischen Reihe deuten: im Gegensatz zum Euler-Produkt für hat sich in dieser Formel „nur“ das Vorzeichen vor von Minus zu Plus geändert. Setzt man statt in die geometrische Reihe, erhält man

womit die Vorzeichen in der hinteren Reihe alternieren, d. h. abwechseln. Erneut können die Klammern sukzessive ausmultipliziert werden, nur dass für jede Primzahlpotenz ein Vorzeichen mitgenommen wird. Also korrespondiert im Ergebnis zum Vorzeichen :

Es ist etwa , denn hat 5 Primfaktoren, und es gilt . Damit findet man[42]

.

Auf sehr ähnlichem Weg lässt sich auf die erzeugende Dirichlet-Reihe der Möbius-Funktion als rationale Funktion der Zeta-Funktion geschlossen ausdrücken:

Formulierung über Nullstellen der Zeta-Funktion[Bearbeiten | Quelltext bearbeiten]

Mittels Euler-Produkt kann die Dirichlet-Reihe der sehr komplizierten Liouville-Funktion bzw. Möbius-Funktion geschlossen als rationale Funktion in Zeta-Funktionen ausgedrückt werden. Gleichzeitig besagt die Riemannsche Vermutung, dass sich der Term bzw. holomorph auf den Bereich fortsetzen lassen kann. Damit ist ausgeschlossen, dass der Nenner in diesem Bereich Null wird, da es der Zähler wegen des Euler-Produktes auch nicht sein kann. Es wird folglich vermutet:

Neben den trivialen Nullstellen bei besitzt die Riemannsche Zeta-Funktion auch nicht-triviale im kritischen Streifen. Potenzielle Nullstellenpaare sind hier sporadisch eingezeichnet: Aufgrund der Invarianz der Funktionalgleichung über nach und der Spiegelung von Funktionswerten komplex konjugierter Argumente an der reellen Achse treten die Nullstellenpaare jeweils doppelt (also gespiegelt) auf. Nur wenn die Riemannsche Vermutung richtig ist, treffen sich alle horizontalen Paare auf der kritischen Geraden .
Vermutung: Alle Nullstellen  der Riemannschen Zeta-Funktion erfüllen .

Aus der Funktionalgleichung der Zeta-Funktion geht hervor, dass genau dann wenn für den Fall , da sowohl die Gammafunktion als auch die Exponentialfunktion in diesem Bereich weder Pol- noch Nullstellen haben, sich also „neutral verhalten“. Gäbe es also zum Beispiel eine Nullstelle mit , so wäre mit die Riemannsche Vermutung verletzt. Einzig die Gerade bleibt unter der Transformation unverändert. Daher motiviert sich folgende hinreichende Version der Riemannschen Vermutung:

Vermutung: Alle Nullstellen  der Riemannschen Zeta-Funktion im Streifen  erfüllen .

Die Funktion ist ganz und nimmt an reellen Stellen reelle Werte an. Ergo hat sie im Punkt bloß reelle Ableitungen. Daraus folgt , wobei der Überstrich die komplexe Konjugation bedeutet (Spiegelung an der reellen Achse). Ist also eine nichttriviale Nullstelle der Zeta-Funktion, so auch . Wird dies mit der Funktionalgleichung kombiniert, treten die nichttrivialen Nullstellen zunächst in Vierergruppen auf (siehe Bild). Stimmt aber die Riemannsche Vermutung, verschmilzt dies wegen und entsprechend zu lediglich einer Zweiergruppe.[43]

Dies ist die auf Bernhard Riemann zurückgehende Originalformulierung. Sie motivierte sich weder aus der Restgliedabschätzung des Primzahlsatzes noch aus den für die Liouville-Funktion vermuteten Beschränktheitseigenschaften. Beide Alternativformulierungen wurden jedoch einige Jahre später als Konsequenz des vermuteten Nullstellenverhaltens der Zeta-Funktion gefolgert und sind zu diesem sogar äquivalent.

Riemann kam auf seine Vermutung bei der Untersuchung des Produkts der Zeta-Funktion mit der Gammafunktion[44]

,

wobei er setzte, und erhielt damit für alle mittels der Funktionalgleichung:

Es ist also eine gerade Funktion.[45] Es ist aber auch , da für reelle reellwertig ist. Der Faktor neutralisiert die trivialen Nullstellen und die Polstelle von , womit sich in diese Punkte holomorph fortsetzt, aber dort nicht verschwindet.[46] Das führt zu folgender einfacheren Form:[47]

Vermutung: Sämtliche Nullstellen der Funktion  in der komplexen Ebene sind reell.

Riemann sprach von „reellen Wurzeln“ der Gleichung und meinte damit, dass für ein im kritischen Streifen die besagte Gleichung lediglich für reelle , also , zu lösen sei.

Die ersten nichttrivialen Nullstellen mit positivem Imaginärteil, nach dessen Größe geordnet, sind

Wegen ist zu beachten, dass auch Nullstellen vorliegen, wenn der Imaginärteil negativ gewählt wird. Für weitere Nullstellen siehe auch die Liste der nichttrivialen Nullstellen der Zeta-Funktion.

Nachbemerkungen[Bearbeiten | Quelltext bearbeiten]

Nullstellenordnungen[Bearbeiten | Quelltext bearbeiten]

Ebenfalls ungeklärt ist die Frage, welche Ordnungen die nichttrivialen Nullstellen der Zeta-Funktion haben. Es wird vermutet, dass sie alle die Ordnung 1 haben, also einfache Nullstellen sind.[48] Dies ist äquivalent dazu, dass die Ableitung an jeder nichttrivialen Nullstelle selbst nicht Null wird. Numerische Untersuchungen stützen diese Vermutung: alle bisher gefundenen Nullstellen hatten einfache Ordnung.

Im Falle der trivialen Nullstellen ist bereits bekannt, dass diese sämtlich einfach sind.[49]

Die Rolle der Zahl 1/2[Bearbeiten | Quelltext bearbeiten]

Die Zahl spielt eine Schlüsselrolle in einigen Formulierungen der Riemannschen Vermutung. Zusammenfassend wird als Synthese der oberen Abschnitte festgehalten:

  • Der Integrallogarithmus stimmt langfristig mit der Primzahl zählenden Funktion in der oberen Hälfte der Ziffern vor dem Komma überein, denn es gilt .
  • Die Wahrscheinlichkeit, dass eine zufällig gewählte Zahl eine gerade (oder ungerade) Anzahl an Primfaktoren besitzt, beträgt asymptotisch , und für die summatorische Funktion der Liouville-Funktion gilt die vom zentralen Grenzwert zu erwartende Schranke mit beliebigen .
  • Es ist der Ausdruck unter unverändert. Ebenso bleibt die kritische Gerade (als einzige Gerade) unter unverändert.
  • Alle nichttrivialen Nullstellen der Riemannschen Zeta-Funktion haben den Realteil .

In seinem, von Fields-Medaillen-Träger Peter Scholze und Jakob Stix kritisierten,[50] Beweisversuch der abc-Vermutung zieht Shin’ichi Mochizuki eine Verbindung zwischen der Riemannhypothese und anderen Theorien, darunter seiner selbst entwickelten Interuniversellen Teichmüller-Theorie und Hodge-Arakelov-Theorie aus der algebraischen Geometrie. Laut Mochizuki seien

  1. das Gaußsche Fehlerintegral,
  2. die schema-theoretische Hodge-Arakelov-Theorie,
  3. die Interuniverselle Teichmüller-Theorie,
  4. die Riemannsche Vermutung,

sämtlich „Phänomene des Gewichts “ (phenomena of weight ), und, auf einer konkreten Ebene, Phänomene, die sich „um arithmetische Versionen von “ drehen.[51]

Bedeutung[Bearbeiten | Quelltext bearbeiten]

Primzahlen und zahlentheoretische Funktionen[Bearbeiten | Quelltext bearbeiten]

Restgliedabschätzungen[Bearbeiten | Quelltext bearbeiten]

Zahlreiche Schätzungen für zahlentheoretische Größen können im Falle der Richtigkeit der Riemannschen Vermutung bewiesen bzw. verbessert werden. Aus der Riemannschen Vermutung folgt beispielsweise eine Restgliedabschätzung im Primzahlsatz (Helge von Koch 1901):[52]

Ähnlich verhält es sich mit der Tschebyschow-Funktion . Trifft die Riemannhypothese zu, so gilt

und umgekehrt. Der minimale Abstand der Nullstellen zur Geraden kontrolliert darüber hinaus exakt die Fehlergüte im Primzahlsatz. In der Tat, ist , so gilt allgemein[53]

und

Die Richtigkeit der Riemannschen Vermutung hätte auch unmittelbare Konsequenzen für das asymptotische Wachstumsverhalten der Zeta-Funktion auf der kritischen Geraden, also die Frage nach dem Anstieg von für . So kann etwa die Lindelöfsche Vermutung, die für alle besagt, aus der Richtigkeit der Riemannhypothese gefolgert werden.[54] Für zahlentheoretische Probleme, in denen, etwa im Rahmen der Perronschen Formel die Zeta-Funktion vertikal integriert werden muss, spielt dieses Wachstum eine entscheidende Rolle.[55] Die vertikalen Integrale kodieren die Größe der Restglieder für viele Schätzverfahren, etwa im Kontext des Dirichletschen Teilerproblems. Definiert man

so kann für alle [56]

gezeigt werden, wobei ein Polynom ist, und unter Annahme der Lindelöfschen Vermutung (insbesondere also unter Annahme der Riemannhypothese), kann der Fehler für stets zu verbessert werden.[57] Allgemeiner führt die Richtigkeit der Riemannsche Vermutung, wegen der maximalen Größe des nullstellenfreien Bereichs, zu einer Verbesserung der Selberg-Delange-Methode.[58]

Riemannsches Spektrum und Fourier-Analysis[Bearbeiten | Quelltext bearbeiten]

Die Fourier-Analysis beschäftigt sich, grob gesprochen, mit der Zerlegung von zum Beispiel Funktionen in ihr Spektrum. Die bedeutendsten Fälle sind die des kontinuierlichen und des diskreten Spektrums. Kann eine Funktion in ein kontinuierliches Spektrum zerlegt werden, ist sie andersherum aus einem solchen aufgebaut. Sie kann (bei einer geraden Funktion ) dann in der Form

geschrieben werden, wobei die Amplituden die Intensität beschreiben, mit der die Frequenz in auftaucht. Im Falle eines diskreten Spektrums ist aus einer Summe aus Schwingungen aufgebaut der Form[59]

.

Aus Symmetriegründen kann die Summe auch bei begonnen werden, nachdem negative Teile des Spektrums als positiv betrachtet werden. Ist die Summe endlich, handelt es sich möglicherweise um einen Mehrklang, der durch Überlagerung mehrerer „reiner“ Schwingungen aufgebaut ist. Eine entscheidende Frage ist, ob und wie es möglich ist, aus dem Verhalten von dessen Spektrum zu rekonstruieren. Das allgemeine Werkzeug hierfür ist die Fourier-Transformation, doch bei diskreten Spektren reicht die Sprache der Funktion nicht mehr aus, die Fourier-Transformation zu beschreiben. Erst unter Verwendung von Distributionen kann dies rigoros gemacht werden, indem man festlegt, dass die inverse Fourier-Transformierte der formalen Reihe die Distribution

mit ist, unter Verwendung der Delta-Distribution.[60] Dieses Prinzip bleibt auch dann erhalten, wenn die beginnende Reihe formal ist, es werden also keinerlei Konvergenzbedingungen gestellt. Anschaulich ist eine „Funktion“, die an der Stelle „unendlich groß“ ist, und ansonsten Null. In einigen Fällen können Distributionen aber als allgemeine Fourier-Reihen aufgefasst werden, besitzen also ebenfalls ein Spektrum. Barry Mazur und William Stein weisen darauf hin, dass dies zu einer Dualität zwischen den Spektra zueinander inverser Distributionen führt. Eine Veranschaulichung ist durch Abbrechen der formalen Reihen an einer oberen Schranke mit anschließendem Auffinden von „Extremstellen“ (spike values) möglich. Betrachtet man also die endliche Summe

so ist ein spike value eine Stelle , in der für unbeschränkt ist, während es an den anderen Stellen lediglich oszilliert. Solche spike values können Informationen über das Spektrum der Transformierten kodieren, und umgekehrt.[61] Ein einfaches Beispiel ist die Reihe . Diese ist nirgends konvergent, oszilliert jedoch an allen Stellen und ist für unbeschränkt. Dies weist auf ein Spektrum hin, und in der Tat hat die Reihe wiederum spike values an den Stellen , womit die Dualität erkennbar ist.

Im Falle der Primzahlen führt eine derartige „Spektralanalyse“ über die Mangoldt-Funktion zu der formalen Reihe

womit das zu Beginn betrachtete Spektrum genau die Logarithmen aller Primpotenzen umfasst, also usw. Nach Abbruch der oberen Reihe an hohen Schranken werden zunehmend spike values erkennbar an den Stellen (siehe auch unteres, rechtes Bild)[62]

Die Werte werden auch als „Riemannsches Spektrum“ (Riemann spectrum) bezeichnet, und an den spike values der allgemeinen Fourier-Reihe

kann die Verteilung der Primzahlen exakt abgelesen bzw. rekonstruiert werden.[63] Trifft die Riemannsche Vermutung zu, so ordnen sich diese Werte auf natürliche Weise als die positiven Imaginärteile der nichttrivialen Nullstellen der Zeta-Funktion an.

Terence Tao folgend sind die Primzahlen unregelmäßig über die ganzen Zahlen verteilt; wenn man jedoch eine Spektralanalyse dieser Verteilung durchführt, kann man bestimmte langfristige Oszillationen in der Verteilung erkennen (manchmal auch als die „Musik der Primzahlen“ bezeichnet), deren Häufigkeit durch eine Folge komplexer Zahlen beschrieben wird – den nichttrivialen Nullstellen der Riemannschen Zeta-Funktion. Im Prinzip sagen diese Zahlen „alles, was wir über die Primzahlen wissen wollen“.[64] Nach einem Hinweis von Andrew Granville können diese Ideen unter Annahme der Riemannhypothese mittels Techniken der Funktionentheorie, etwa Kurvenintegration, rigoros gemacht werden.[65]

Explizite Formeln[Bearbeiten | Quelltext bearbeiten]

Mit Hilfe der Nullstellen der Zeta-Funktion können Verteilungsfunktionen zu den Primzahlen rekonstruiert werden. Die Herleitung dieser Formeln beruht letztlich auf Methoden verwandt zur Fourier-Analysis. Ausgangspunkt sind die Perronschen Formeln. Diese besagen in ihrer effektiven Form

für und . Das bedeutet, dass eine diskrete Summe mit auf der einen Seite bis auf einen kalkulierbaren Fehler durch einen Integralausdruck auf der anderen Seite dargestellt wird. Der Integralausdruck ist ein analytischer Term, und für dessen Studium kann man sich der Eigenschaften des inneren Terms, des Integranden, bemächtigen. Durch eine Verschiebung der Integrationslinie nach rechts kann unter Anwendung des Residuensatzes der Funktionentheorie diese Formel expliziter gemacht werden. Dabei werden die Polstellen des Ausdrucks berücksichtigt. Polstellen entstehen unter anderem dort, wo verschwindet. Das Untermauert die Bedeutung der Nullstellen von beim Studium des Terms . Bereits Hans von Mangoldt war es möglich, die exakte, für und gültige Formel

zu beweisen, wobei die Summe über alle nichttrivialen Nullstellen von läuft. In diesem Ausdruck wird die Dualität zwischen Primzahlen und Nullstellen sichtbar. Der Term auf der rechten Seite nähert für immer genauer an, und man kann sich die Nullstellen wegen der Eulerschen Formel

als Frequenzen vorstellen, deren Überlagerung gerade die Zählfunktion ergibt. Da die Größenordnung des Terms auf der rechten Seite im Wesentlichen nur von den reellen Potenzen von bestimmt wird, reicht es für den Primzahlsatz, also , zu zeigen, dass für alle nichttrivialen Nullstellen gilt.[66] Gilt sogar für alle , also die Riemannsche Vermutung, so ist im Wesentlichen von der Ordnung einer Quadratwurzel.

Primzahlverteilung und -abstände[Bearbeiten | Quelltext bearbeiten]

Eine Frage der Zahlentheorie ist, wie sich die Abstände der Primzahlen verhalten, also die Differenzen , wenn die -te Primzahl bezeichnet. Zwar liefert die Riemannhypothese keine exakte Antwort auf diese Frage, dennoch sagt sie aus, dass sich die Abstände gleichmäßig durch eine verhältnismäßig „kleine“ Größe nach oben abschätzen lassen. So gilt, unter Annahme der Riemannhypothese für alle [67]

Das bedeutet, dass die Abstände zwischen zwei benachbarten Primzahlen im Wesentlichen nicht größer sind als die Quadratwurzel der kleineren Primzahl. Zum Beispiel ist

und . Jedoch können ähnliche Resultate bereits durch schwächere Annahmen erzielt werden, in etwa wenn gezeigt werden kann, dass in gewissen Teilstreifen nahe nur noch „wenige“ Nullstellen liegen können. Definiert man präzise

so kann die sog. Dichtehypothese

mit festem in manchen Fällen die Riemannsche Vermutung ersetzen.[68] So gilt unter Annahme von , , sowie für bereits

für und , mit der Tschebyschow-Funktion . Mit ist das Ergebnis nur unwesentlich schwächer als unter Annahme der Riemannschen Vermutung.[69] Die Dichteabschätzung stammt von Albert Ingham, womit sich schon zeigen lässt, dass jedes Intervall mit beliebigem eine Primzahl enthält.[70] Eine Verbesserung dieses Resultats lieferte Martin Huxley.[71]

Hinsichtlich der Verteilung von Primzahlen in „kurzen Intervallen“ weist Terence Tao darauf hin, dass die von ihm so genannte square root barrier (deutsch: „Quadratwurzelhürde“) eine feine Abschätzung verhindere. Hintergrund ist, dass im Primzahlsatz der Fehlerterm nicht unterhalb einer Quadratwurzel gedrückt werden kann. Ein starkes Beispiel dafür ist der Versuch, die größte Lücke zwischen aufeinanderfolgenden Primzahlen in einem Intervall für zu bestimmen. Es gebe, so Tao, überzeugende Heuristiken, die nahelegen, dass diese größte Lücke die Größe hat (Cramérsche Vermutung). Aber selbst wenn man die Riemannsche Vermutung annimmt, ist die beste obere Schranke für diese Lücke nur , hauptsächlich wegen der square root barrier.[72] Ferner kann die Legendresche Vermutung, die besagt, dass zwischen zwei benachbarten Quadratzahlen stets eine Primzahl liegt, selbst unter Annahme der Riemannhypothese nicht ohne Weiteres bewiesen werden.

Bezüglich der Forschung zu Primzahllücken hat sich die Siebtheorie als eine gute Alternative zur Riemannschen Vermutung erwiesen. Fortschritte in dieser Richtung stammen von Daniel Goldston, Cem Yıldırım, János Pintz sowie Yitang Zhang und James Maynard.[73][74][75][76] In etwa ist der Satz von Bombieri und Winogradow im Sinne einer Bildung von Durchschnitten über Dirichlet-Charaktere ähnlich mächtig wie die verallgemeinerte Riemannsche Vermutung.[77] Mit seiner Hilfe konnte unter anderem der Satz von Chen bewiesen werden, der besagt, dass jede hinreichend große gerade Zahl Summe einer Primzahl und einer Zahl mit maximal zwei Primfaktoren ist.

Kryptographie und Primzahltests[Bearbeiten | Quelltext bearbeiten]

Neben zahlreichen Anwendungen in vielen Bereichen der Mathematik ist die Riemannsche Vermutung auch in der Kryptographie von Interesse. Das RSA-Kryptosystem beispielsweise verwendet große Primzahlen, um sowohl einen öffentlichen als auch einen privaten Schlüssel zu konstruieren. Seine Sicherheit beruht auf der Tatsache, dass es für herkömmliche Computer noch keinen effizienten Algorithmus gibt, um eine Zahl in ihre Primfaktoren zu zerlegen. Die Theorie hinter RSA erfordert nur Ergebnisse aus der elementaren Zahlentheorie.[78] Wiederum auf der Grundlage der einfachen Zahlentheorie und unter Verwendung von Fermats kleinem Satz entwickelte Miller 1976 einen deterministischen Primzahltest, der unter der Annahme der so genannten verallgemeinerten Riemannschen Vermutung funktioniert.[79] Im Jahr 1980 nutzte Michael O. Rabin Millers Ergebnisse, um einen probabilistischen Test zu entwickeln, der unabhängig von der verallgemeinerten Riemannhypothese funktioniert.[80] Durch die Arbeit von Bach im Jahr 1990 kann dieser so genannte Miller-Rabin-Test in einen deterministischen Test umgewandelt werden, der mit der Geschwindigkeit abläuft, wobei wiederum die verallgemeinerte Riemannsche Vermutung vorausgesetzt wird.[81]

Montgomerys Paar-Korrelation-Vermutung[Bearbeiten