Berechenbarkeitstheorie

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Berechenbarkeitstheorie (auch Rekursionstheorie) ist ein Teilgebiet der theoretischen Informatik und der mathematischen Logik, die sich mit dem Begriff der Berechenbarkeit befasst, insbesondere damit, welche Probleme mit Hilfe einer Maschine (genauer: eines mathematischen Modells einer Maschine) lösbar sind. Sie ist eng verwandt mit der formalen Semantik, richtet aber die Aufmerksamkeit mehr auf die Terminiertheit von Programmen und Algorithmen. Auch verwendet sie als Ausgangspunkt die verschiedenen Modelle von Maschinen und nicht die abstrakteren Spezifikationssprachen.

Die Berechenbarkeitstheorie wird oft auch als Rekursionstheorie bezeichnet. Manchmal wird letzterer Begriff auch benutzt, wenn man die Berechenbarkeitstheorie als Teilgebiet der mathematischen Logik auffasst oder um zu betonen, dass auch verallgemeinerte Formen von Berechenbarkeit und Definierbarkeit betrachtet werden. Einige Autoren verwenden den Begriff Rekursion, um nur die Funktionen mit explizitem Selbstbezug zu kennzeichnen.

Hauptfragen[Bearbeiten]

Welche Art Aufgaben kann eine Turingmaschine lösen?[Bearbeiten]

Ein Problem heißt entscheidbar, wenn es durch einen Algorithmus gelöst werden kann. Viele Probleme sind entscheidbar, es sind aber auch viele unentscheidbare Probleme bekannt. Beispielsweise sind nach dem Satz von Rice alle (nichttrivialen) semantischen Eigenschaften von Programmen unentscheidbar.

Zum Beispiel kann das Problem der Gültigkeit prädikatenlogischer Formeln nicht algorithmisch gelöst werden: Gegeben ist eine Aussage der Prädikatenlogik erster Stufe. Aufgabe ist es herauszubekommen, ob die Aussage wahr ist. Dieses Problem ist auch als das Entscheidungsproblem (im engeren Sinn) bekannt. Church und Turing haben unabhängig voneinander nachgewiesen, dass dieses Problem nicht gelöst werden kann.

Ein weiteres Problem ist das Halteproblem. Gegeben seien ein Algorithmus und eine Eingabe. Gefragt wird, ob der Algorithmus für die Eingabe schließlich hält (terminiert). Turing wies die Unentscheidbarkeit dieser Frage nach.

Andere Modelle für Berechenbarkeit mit gleicher Leistungsfähigkeit[Bearbeiten]

Welche Aufgaben können durch weniger leistungsfähige Maschinen gelöst werden?[Bearbeiten]

Die Chomsky-Hierarchie beschreibt diejenigen formalen Sprachen, die durch vier Klassen von Algorithmen erkannt werden können. Sie alle setzen einen nichtdeterministischen endlichen Automaten voraus mit einem Speicher. Wenn der Speicher unendlich groß ist, dann entspricht die Situation der Turingmaschine. Wenn der Speicher proportional zur Größe der Eingabezeichenkette ist, dann können kontext-abhängige Sprachen erkannt werden. Wenn der Speicher nur einen Stapel umfasst, dann können kontextfreie Sprachen erkannt werden. Wenn die Maschine nur einen endlichen Speicher hat, dann können nur Sprachen, die durch reguläre Ausdrücke definiert sind, erkannt werden.

Zusammenhang mit der Physik[Bearbeiten]

Dem Physiker Richard Feynman fiel auf, dass Computer ziemlich schlecht darin sind, Problemstellungen aus der Quantenmechanik zu berechnen.[1][2] Ein wichtiger Vortrag von ihm hierzu aus dem Jahre 1981 hatte den Titel

Can (quantum) physics be (efficiently) simulated by (classical) computers?

Offenbar kann die Natur den Ausgang eines quantenmechanischen Experimentes schneller ausrechnen, als wir dies mit einem Computer können. Daher schlug er vor, einen besonderen Computer zu bauen, einen Quantenprozessor. Dessen Rechenwerk sollte quantenmechanische Prozesse nutzen, um Ergebnisse für quantenmechanische Probleme effizienter zu berechnen. Dabei wurde dann irgendwann klar, dass die einfachen mathematischen Modelle der theoretischen Informatik eigentlich nur mit einer Teilklasse der realen Computer korrespondieren können, weil man nicht alle physikalischen Möglichkeiten ausgeschöpft hatte. Diese neue Klasse von Computern wird als Quantencomputer bezeichnet. Trotzdem sind Quantencomputer im Sinne der Berechenbarkeitstheorie nicht mächtiger als Turingmaschinen (sie können exakt die gleichen Probleme lösen) jedoch könnte sich eventuell ein erheblicher Geschwindigkeitsvorteil ergeben.

Literatur[Bearbeiten]

Einführungen[Bearbeiten]

  • S. B. Cooper: Computability Theory. Chapman & Hall/CRC, 2004, ISBN 1-58488-237-9.
  • Nigel Cutland: Computability, An introduction to recursive function theory. Cambridge University Press, 1980, ISBN 0-521-29465-7.
  • Klaus Heidler, Hans Hermes, Friedrich-K. Mahn.: Rekursive Funktionen. Mannheim - Wien - Zürich 1977.
  • Hans Hermes: Aufzählbarkeit - Entscheidbarkeit - Berechenbarkeit. Einführung in die Theorie der rekursiven Funktionen. Berlin/ Göttingen/ Heidelberg 1961. (2. Auflage. 1971, als Heidelberger Taschenbuch).
  • Stephen Kleene: Introduction to Metamathematics. North-Holland, 1952, ISBN 0-7204-2103-9.
  • Michael Sipser: Introduction to the Theory of Computation. PWS Publishing, 1997, ISBN 0-534-94728-X. Part Two: Computability Theory, Chapters 3–6, S. 123–222.

Spezialwerke[Bearbeiten]

  • Piergiorgio Odifreddi: Classical Recursion Theory. North-Holland, 1989, ISBN 0-444-87295-7.
  • P. Odifreddi: Classical Recursion Theory, Volume II. Elsevier, 1999, ISBN 0-444-50205-X.
  •  Hartley Rogers: Theory of recursive functions and effective computability. McGraw-Hill, 1967.
  • G. Sacks: Higher Recursion Theory. Springer-Verlag, 1990, ISBN 3-540-19305-7.
  • R. I. Soare: Recursively Enumerable Sets and Degrees. Perspectives in Mathematical Logic. Springer-Verlag, 1987, ISBN 0-387-15299-7.

Einzelnachweise[Bearbeiten]

  1. Richard P. Feynman: Simulating Physics with computers. International Journal of Theoretical Physics, 1982, Volume 21, number 6/7, ISSN 0020-7748, S. 467–468, doi:10.1007/BF02650179.
  2. Tony Hey: Richard Feynman and Computation. Contemporary Physics, 1999, Volume 40, number 4, ISSN 0010-7514, S. 257–265.