Laufzeit (Informatik)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Der Begriff Laufzeit (englisch runtime) beschreibt in der Informatik einerseits die Zeitdauer, die ein Programm, ausgeführt durch einen Rechner, zur Bewältigung einer Aufgabe benötigt. Anderseits wird mit Laufzeit auch allgemein die Programmlebensphase der Ausführung, die nach der Kompilierung folgt, bezeichnet. Zu dieser zweiten Bedeutung bildet die Übersetzungszeit das Gegenstück.

Laufzeit als Dauer der Ausführung[Bearbeiten]

Die Länge der Zeitspanne, die zur Lösung einer Aufgabe benötigt wird, lässt sich häufig nur durch Ausprobieren bestimmen. Jeder Befehl eines Programms in einer höheren Programmiersprache wird vom Compiler in eine vorher nicht zwingend bekannte Anzahl von Maschinenbefehlen übersetzt. Die Ausführung eines Befehls kann, je nach Hardware, weitere Verzögerungen ergeben – wenn z. B. Daten zwischen Hauptspeicher und Cache ausgetauscht oder von der Festplatte in den Speicher eingelagert werden müssen (Paging). Weitere Abhängigkeiten ergeben sich von Betriebssystem, CPU-Taktrate, Größe des Hauptspeichers, Übertragungsrate des internen Bus-Systems usw. Auch möchte man etwa abschätzen, wie sich das untersuchte Programm unter Variation der Größen der Eingangsvariablen, der Instanzen, verhält.

In der Informatik gibt man daher Laufzeiten von Algorithmen nicht in Zeiteinheiten an. Stattdessen sucht man eine obere Schranke an die Anzahl der einfachen Operationen, auch Elementarschritte, in der Größe der Instanz und verwendet die Landau-Notation.

Einige Beispiele anhand eines Programms, das n Zahlen sortiert:

  • \mathcal{O} (n) beschreibt ein lineares Wachstum. Solch ein Programm macht pro eingegebener Zahl nur eine konstante Anzahl von Rechenschritten. Werden beispielsweise doppelt so viele Zahlen eingegeben verdoppelt sich auch die Ausführungsdauer.
  • \mathcal{O} (n^2) bedeutet quadratisches Wachstum. Das Sortierprogramm macht pro eingegebener Zahl eine konstante Anzahl von Durchläufen durch die ganze Liste. Bei doppelter Größe der Eingabedaten kommt es hier also etwa zu einer Vervierfachung der Ausführungsdauer.
  • \mathcal{O} (2^{n}) würde schließlich exponentielles Wachstum bedeuten. Im Beispiel des Sortierprogramms würde sich mit jeder weiteren Zahl die Laufzeit (ungefähr) verdoppeln, was bereits bei verhältnismäßig kleinen Eingabegrößen zu extrem langen Laufzeiten führt. Solch einen Zeitverbrauch erreicht ein Sortierprogramm beispielsweise, indem es alle möglichen Reihenfolgen der Zahlen daraufhin testet, ob sie sortiert sind.

Verfahren mit exponentieller Laufzeit versucht man daher nach Möglichkeit zu vermeiden – ob das überhaupt geht, ist eine der Fragen, die man sich in der Theoretischen Informatik stellt (vgl. dazu Komplexitätstheorie und NP-vollständig). Angestrebt werden Verfahren mit polynomieller, also salopp gesagt „n hoch irgendwas“, oder noch besser logarithmischer Laufzeit \mathcal{O} (\log n). Heute gebräuchliche Sortierverfahren erreichen meist eine worst case Laufzeit von \mathcal{O} (n \log n) oder \mathcal{O}( n^2). Man beachte dabei, dass ein Programm im Grunde dreigeteilt ist – Eingabe, Verarbeitung, Ausgabe – und dass sich nur der mittlere Teil in dieser Hinsicht optimieren lässt (Ein- und Ausgabe haben in der Regel lineares Zeitverhalten – es muss ja jeder einzelne Wert eingelesen/ausgegeben werden).

Laufzeit als Lebensphase eines Programms[Bearbeiten]

Laufzeit (runtime) bezeichnet auch die Phase der Ausführung eines Programms in einem spezifischen Laufzeitkontext: variierende Hardwareeigenschaften, Eingabeparameter und Benutzer-Interaktion. Das Programm befindet sich zur Laufzeit typischerweise in einer Verwendung in einem Kontext der in dieser exakten Konstellation durch den Entwickler nicht (oder nur näherungsweise über Dynamische Code-Analyse) vorhersehbar war.

Da nun beim Ausführen in diesen variierenden Kontexten bestimmte Programmeigenheiten – insbesondere Fehler – erstmals auftreten können, erhält der Entwickler häufig nur auf diesem Wege die Hinweise für notwendige Änderungen am Programm. Im weiteren Sinn kann somit auch die reguläre Ausführung eines Programms als Teil des Entwicklungsprozesses angesehen werden.

Weitere Phasen sind z. B. die Übersetzungszeit (engl. compile time) als Phase bis zum Zeitpunkt der automatischen Übersetzung des Quelltextes und die link time für den Zeitpunkt, zu dem das Programm aus seinen binären Programmkomponenten zu einer ausführbaren Einheit zusammengeführt wird. Manchmal wird die Phase des eigentlichen Programmierens und Modellierens als precompile time bezeichnet.

Siehe auch[Bearbeiten]