Interpreter

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Dieser Artikel ist nicht hinreichend mit Belegen (beispielsweise Einzelnachweisen) ausgestattet. Angaben ohne ausreichenden Beleg könnten demnächst entfernt werden. Bitte hilf Wikipedia, indem du die Angaben recherchierst und gute Belege einfügst.
Der Artikel, insbesondere geschichtliche Angaben sowie subjektive Aussagen („Der größte Nachteil...“), sollten mit Belegen versehen werden.

Als Interpreter wird ein Computerprogramm bezeichnet, das eine Abfolge von Anweisungen scheinbar direkt ausführt,[1] wobei das Format der Anweisungen vorgegeben ist. Der Interpreter liest dazu eine oder mehrere Quelldateien ein, analysiert diese und führt sie anschließend Anweisung für Anweisung aus, indem er diese in Maschinencode übersetzt, die ein Computersystem direkt ausführen kann. Interpreter sind deutlich langsamer als Compiler, bieten im Allgemeinen jedoch eine bessere Fehleranalyse.[1]

Interpreter werden sowohl bei Programmiersprachen als auch bei Computerprogrammen verwendet.

Verwendung[Bearbeiten | Quelltext bearbeiten]

Programmierung[Bearbeiten | Quelltext bearbeiten]

Bei der Programmierung ist ein Interpreter fast immer ein Bestandteil der Softwareentwicklung.

In ihrer Reinform übersetzen Compiler – im Unterschied zu Interpretern – die Anweisungen aus den Quelldateien in einem oder mehreren Durchläufen in Maschinencode für ein vorher festgelegtes Zielsystem und erstellen so ein ausführbares Computerprogramm. Jedoch gibt es bereits hier die Unterscheidung zwischen Compiler-Compiler und Interpreter-Compiler, genauso wie es auch Interpreter-Interpreter und Compiler-Interpreter gibt.[2]

“Any good software engineer will tell you that a compiler and an interpreter are interchangeable.”

„Jeder gute Software-Entwickler wird Ihnen sagen, dass Compiler und Interpreter austauschbar sind.“

Tim Berners-Lee: Torben Ægidius Mogensen: Introduction to Compiler Design. Springer Science & Business Media, London 2011, ISBN 978-0-85729-828-7 (englisch, eingeschränkte Vorschau in der Google-Buchsuche).

Ist die letzte Stufe ein Interpreter, so erfolgt die Übersetzung der Quelldatei zur Laufzeit des Programmes.[3][4]

Programmiersprachen, die Quelltext nicht kompilieren sondern eine Eingabe oder eine Quelldatei stets interpretieren, werden auch als „Interpretersprache“ oder Skriptsprache bezeichnet. Klassische Interpretersprachen sind z. B. BASIC wie GW-BASIC, Tcl oder JavaScript. Bei einigen weiteren Programmiersprachen kann ein Programmierer zwischen Interpreter und Compiler wählen. Bei einigen Programmiersprachen wird auch ein Bytecode als Zwischencode erzeugt, der bereits optimiert ist, jedoch zur Ausführung abermals einen Interpreter auf dem Zielssystem benötigt. Zudem gibt es extern entwickelte Compiler für eigentlich reine Interpretersprachen.

Computerprogramme[Bearbeiten | Quelltext bearbeiten]

Skripte für Kommandozeileninterpreter, etwa Stapelverarbeitungsdateien oder Unix-Shell-Scripte, werden ebenfalls von einem Interpreter ausgeführt. Damit der Skript nicht als Kommandozeilen-Parameter angegeben werden muss, gibt es auf Unix-artigen Systemen und Shells das sogenannte Shebang – der Skipt ruft sich damit den passenden Interpreter, mithilfe der Shell, sozusagen selbst auf.

Bei Computerprogrammen spricht man ebenfalls von Interpretern, sobald der Code nicht direkt vom Computersystem ausgeführt werden kann oder soll. Dies ist u. a. bei Emulatoren ebenfalls der Fall, die Maschinencode für andere Computersysteme analysieren, umschreiben und für das Computersystem, auf dem sie gerade laufen, interpretiert ausführen. Virtuelle Maschinen zählen jedoch nicht dazu, da diese große Teile des Maschinencodes des Gastsystems auf dem Hostsystem uninterpretiert direkt ausführen. Auch Game-Engines können Interpreter sein, wenn sie die eigentlichen Spieledaten, meist als Bytecode, auf der jeweiligen Plattform interpretiert ausführen.

Eigenschaften[Bearbeiten | Quelltext bearbeiten]

Interpreter liegen zumeist in Maschinensprache des Zielprozessors vor, können aber auch selbst wieder in einer Interpretersprache vorliegen. Der größte Nachteil ist dabei die gegenüber einem Compiler geringere Ausführungsgeschwindigkeit. Diese ist der Tatsache geschuldet, dass der Compiler sich während des Kompilierungsprozesses die Zeit nehmen kann, den Code zu optimieren, der somit auf dem jeweiligen Zielsystem schneller ausgeführt wird. Derlei Optimierungen sind jedoch zeitaufwendig, sodass ein Interpreter meist eine direkte Umsetzung auf Maschinencode durchführt, was jedoch in Summe wieder langsamer ist als der optimierte Code durch den Compiler.

Interpretierter Code ist in etwa fünf bis 20 Mal langsamer als kompilierter Code.[5]

Zu den Vorteilen von interpretiertem Code zählt, neben der besseren Fehleranalyse, die Unabhängigkeit von einer vorher festgelegten Rechnerarchitektur – denn interpretierter Code läuft auf jedem System, auf dem es einen Interpreter dafür gibt.

Geschwindigkeitssteigerungen[Bearbeiten | Quelltext bearbeiten]

Eine Kompromisslösung ist ein Just-in-time-Compiler (JIT-Compiler), bei dem das Programm erst zur Laufzeit, jedoch direkt in Maschinencode übersetzt wird. Danach wird der übersetzte Code direkt vom Prozessor ausgeführt. Durch Zwischenspeicherung des Maschinencodes müssen mehrfach durchlaufene Programmteile nur einmal übersetzt werden. Auch ermöglicht der JIT-Compiler eine stärkere Optimierung des Binärcodes. JIT-Compiler sind allerdings nur auf einer bestimmten Rechnerarchitektur lauffähig, weil sie Maschinencode für diese Architektur erzeugen, und benötigen weit mehr Arbeitsspeicher als reine Interpreter.[5]

Zwischencode[Bearbeiten | Quelltext bearbeiten]

Eine weitere Zwischenstufe sind Bytecode-Interpreter. Dabei wird der Quelltext (vorab oder zur Laufzeit) in einen einfachen Zwischencode übersetzt, der dann von einem Interpreter – auch häufig als virtuelle Maschine bezeichnet – ausgeführt wird. Dies ist z. B. bei Java durch die Java Virtual Machine (JVM) der Fall. Es entsprich dem Konzept Compiler-Interpreter, da der Zwischencode bereits in Teilen optimiert kompiliert wurde (Quelltext → Compiler → Zwischencode als Bytecode → Interpreter → Ausführung auf dem Zielsystem).

Besonders in den 1980er Jahren benutzte man die Zwischenstufe, Befehle zum Eingabezeitpunkt in leichter dekodierbare Tokens umzuwandeln, die bei der (List-)Ausgabe wieder in Klartext umgewandelt wurden. Neben der Geschwindigkeitssteigerung war die Kompression des Quelltextes ein gewichtiges Argument. Prinzipiell war es damit auch möglich, jeweils muttersprachliche Schlüsselwörter zu verwenden, wenn man den Datenaustausch auf Basis des tokenisierten Quellprogramms durchführte.

Mischformen[Bearbeiten | Quelltext bearbeiten]

Da JIT-Code nicht automatisch schneller ist als interpretierter Code, verwenden manche Laufzeitumgebungen eine Mischform. Ein Beispiel dafür ist die JVM. Dabei wird der JIT-Compiler parallel mit dem Interpreter verwendet, und der jeweils schnellere Ausfühungspfad verwendet.[6]

Interpretersprachen[Bearbeiten | Quelltext bearbeiten]

Dieser Artikel oder Abschnitt bedarf einer Überarbeitung. Näheres sollte auf der Diskussionsseite angegeben sein. Bitte hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.

Als Interpretersprachen werden häufig Programmiersprachen bezeichnet, deren Haupt- oder Erstimplementierung ein Interpreter ist, als Gegenteil zu einer Programmiersprache, die einen Compiler verwendet (Compilersprache).[7] Grundsätzlich ist eine Programmiersprache nicht an eine Art der Implementierung gebunden und es existieren Mischform aus den beiden gegenteiligen Ansätzen.

Es gibt jedoch auch Programmiersprachen, die unter Gesichtspunkten der späteren Implementierung gestaltet wurden; dies ist bei manchen älteren Sprachen noch gut zu erkennen. So mussten Interpreter aufgrund der geringen Leistungsfähigkeit der frühen Computer möglichst einfach und klein gehalten werden, um nicht zu viel Rechenzeit und Arbeitsspeicher zu verbrauchen. Compiler hingegen konnten viel Rechenzeit und auch viel Arbeitsspeicher verbrauchen, denn wenn das Programm lief, waren sie nicht mehr aktiv. Deshalb wurden Sprachen, die interpretiert werden sollten, so gestaltet, dass sie einfach analysiert und ausgeführt werden können. Wohingegen Sprachen, die compiliert werden sollten, auch aufwändig zu analysierende und bearbeitende Konstrukte enthalten konnten. Heute spielt dies beim Entwurf einer Programmiersprache nur noch in den allerseltensten Fällen eine Rolle.

Für einige Sprachen existieren verschiedenartige Implementierungen. Hierbei sticht die Sprache Scheme hervor, für die eine unüberschaubare Vielzahl an Implementierungen existiert, die auf vielen verschiedenen Konzepten basieren. Hierzu noch ein Beispiel: Die Programmiersprache C, ist sehr stark darauf ausgelegt compiliert zu werden. Doch es existieren trotzdem Interpreter wie der CINT und der Ch für diese Sprache und das, obwohl C oft als ein Paradebeispiel für eine Sprache genannt wird, die keine „Interpretersprache“, sondern eine „Compilersprache“ ist.

Als Interpretersprachen bekannt sind APL, BASIC, Forth, Perl, Python, Ruby, PHP und viele andere.[4] Als eine Unter- oder verwandte Kategorie der Interpretersprachen werden manchmal die Skriptsprachen genannt.

Bekannte Programmiersprachen, die üblicherweise in Bytecode übersetzt werden, sind Java, C#, Perl und Python.

Für manche Sprachen (etwa Smalltalk) gibt es je nach Anbieter Interpreter, Bytecode-Interpreter, JIT-Compiler oder Compiler in andere Sprachen (beispielsweise nach C oder .NET).

Der Übergang zwischen reinen Interpretern und reinen Compilern ist fließend.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b Alfred V. Aho, Monica S. Lam, Ravi Sethi, Jeffrey D. Ullman: Compiler: Prinzipien, Techniken und Werkzeuge. Pearson Deutschland GmbH, 2008, ISBN 978-3-8273-7097-6, S. 1253 (eingeschränkte Vorschau in der Google-Buchsuche).
  2. Julius T. Tou: Software Engineering. Proceedings of the Third Symposium on Computer and Information Sciences held in Miami Beach, Florida, December, 1969. Academic Press, New York, London 1970, ISBN 978-0-323-15744-5, S. 288 (englisch, eingeschränkte Vorschau in der Google-Buchsuche).
  3. Was ist ein Interpreter? » XOVI. Abgerufen am 29. Mai 2019.
  4. a b Michael Bürger: Interpretersprachen. Abgerufen am 29. Mai 2019.
  5. a b David A. Watt: Compiler Construction. 9th International Conference, CC 2000. In: Lecture Notes in Computer Science, Volume 1781. Springer-Verlag, Berlin, Heidelberg, New York 2000, ISBN 978-3-540-67263-0, S. 300 (englisch, eingeschränkte Vorschau in der Google-Buchsuche).
  6. R. Nageswara Rao, Kogent Solutions Inc.: Core Java: An Integrated Approach. Covers Concepts, Programs and Interview Questions. Dreamtech Press, New Delhi 2008, ISBN 978-81-7722-836-6, S. 664 (englisch, eingeschränkte Vorschau in der Google-Buchsuche).
  7. Christian Wagenknecht, Michael Hielscher: Formale Sprachen, abstrakte Automaten und Compiler. Lehr- und Arbeitsbuch für Grundstudium und Fortbildung. Springer-Verlag, 2009, ISBN 3-8348-0624-2 (eingeschränkte Vorschau in der Google-Buchsuche).