Reguläre Grammatik

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Eine reguläre Grammatik ist eine formale Grammatik vom Typ 3 der Chomsky-Hierarchie. Die von solchen Grammatiken erzeugte Sprachen heißen reguläre Sprachen.[1]

Definition[Bearbeiten]

Eine reguläre Grammatik G = \left(N,\Sigma,P,S\right) ist eine kontextfreie Grammatik, deren Produktionsregeln bestimmten weiteren Einschränkungen genügen. Es gibt zwei verschiedene Arten von Einschränkungen, die dann spezifisch rechtsreguläre bzw. linksreguläre Grammatiken definieren. Da man sich aus praktischen Gründen bei Anwendungen meist an die rechtsregulären Grammatiken hält, sagt man oft auch kurz „regulär“, wo man eigentlich „rechtsregulär“ meint.[2]

Für Produktionsregeln w_1\to w_2 \in P regulärer Grammatiken darf die linke Seite immer nur ein Nichtterminalsymbol sein, w_1\in N. Damit ist jede reguläre Grammatik auch kontextfrei. Außerdem darf die rechte Seite jeder Regel höchstens ein Terminal- und ein Nichtterminalsymbol enthalten. Alle Regeln mit zwei Symbolen auf ihrer rechten Seite müssen die gleiche Reihenfolge von Terminal- und Nichtterminalsymbol einhalten.

Rechtsreguläre Grammatiken[Bearbeiten]

Bei rechtsregulären Grammatiken darf die rechte Seite w_2 einer Produktion w_1 \to w_2 nur das leere Wort, ein Terminalsymbol oder ein Terminal gefolgt von einem einzigen Nichtterminal sein. Ableitungen in solchen Grammatiken wachsen also am rechten Ende einer Satzform.

Formal kann man die Bedingung an die Produktionsmenge P einer rechtsregulären Grammatik G so ausdrücken:

\forall \left(w_1 \to w_2\right) \in P : \left(w_1 \in N\right) \and \left(w_2 \in \{\varepsilon\} \cup \Sigma \cup \Sigma N\right)

\varepsilon steht dabei für das leere Wort.

Linksreguläre Grammatiken[Bearbeiten]

Bei linksregulären Grammatiken darf umgekehrt die rechte Seite w_2 einer Produktion nur das leere Wort, ein Terminalsymbol oder ein Nichtterminal gefolgt von einem Terminal sein. Hier verlängern also die Ableitungen die Satzformen linksseitig.

Formal sehen die Bedingungen folgendermaßen aus:

\forall \left(w_1 \to w_2\right) \in P : \left(w_1 \in N\right) \and \left(w_2 \in \{\varepsilon\} \cup N \Sigma \cup \Sigma\right)

Weitere Schreibweisen[Bearbeiten]

Die Bedingung für reguläre Grammatiken lässt sich auch kürzer notieren, indem man die Menge der gültigen Produktionsregeln definiert:

P \subseteq N \times (\{\varepsilon\}\cup \Sigma \cup \Sigma N) (rechtsregulärer Fall)
P \subseteq N \times (\{\varepsilon\} \cup \Sigma \cup N\Sigma) (linksregulärer Fall)

Für beliebige X, Y\in N und a \in \Sigma sind also im rechtsregulären Fall nur folgende Muster von Regeln erlaubt:

  1. X \to aY
  2. X \to a
  3. X \to \varepsilon

Für linksreguläre Grammatiken tritt anstelle des erstgenannten Musters das folgende ein:

  1. X \to Ya

Die jeweils erste Produktion ist rechts- beziehungsweise linksregulär (auch rechts- und linkslinear genannt). Eine reguläre Grammatik darf nicht Regeln nach beiden Mustern für 1. mischen.

Reguläre Sprachen[Bearbeiten]

Eine von einer regulären Grammatik erzeugte Sprache nennt man reguläre Sprache. Für jede reguläre Sprache existiert auch immer mindestens eine reguläre Grammatik.

Die regulären Sprachen erweisen sich als abgeschlossen unter Komplementbildung, Konkatenation, Schnitt, Vereinigung und Bildung des Kleeneschen Abschlusses.

Jede reguläre Sprache wird auch von einem geeigneten deterministischen – und dann notwendigerweise auch von einem nichtdeterministischen – endlichen Automaten akzeptiert und von einem geeigneten regulären Ausdruck beschrieben. Umgekehrt werden die Sprachen, die ein deterministischer oder nichtdeterministischer endlicher Automat akzeptiert bzw. die ein regulärer Ausdruck beschreibt, auch von einer geeigneten regulären Grammatik erzeugt. Dass in den regulären Sprachen die durch vier verschiedene Formalismen definierten Sprachklassen in einer Klasse zusammenfallen, bringt ihnen ihre große Bedeutung ein.

Auch die Klassen der rechtsregulären und der linksregulären Grammatiken fallen zusammen: Zu jeder linksregulären Grammatik gibt es eine rechtsreguläre Grammatik, die dieselbe Sprache erzeugt, und umgekehrt.

Beschreibung des Ableitungsvorgangs[Bearbeiten]

Verfolgt man den Verlauf einer Ableitung in einer rechtsregulären Grammatik, so bestehen alle Satzformen, die überhaupt noch ein Nichtterminalsymbol besitzen, aus einem Wort aus Terminalen vorneweg, gefolgt von einem einzigen Nichtterminal. Das abgeleitete Wort entsteht also schrittweise durch Anfügen eines Terminalsymbols auf der rechten Seite des initialen Terminalworts und gleichzeitiger Änderung des finalen Nichtterminals.

Ein deterministischer Automat, der L_{doremi} erkennt

Die folgende rechtsreguläre Beispielgrammatik mit \Sigma=\{d,e,i,m,o,r\} beschreibt die Sprache L_{doremi} = \{do, re, mi\}^*.

G_{doremi} = (\{S,A,B,C\},\Sigma,P,S) mit folgenden Regeln in P:

S \to dA | rB | mC | \varepsilon
A \to oS
B \to eS
C \to iS

Das Wort domire \in L_{doremi} hat folgende Ableitung:

S\Rightarrow dA \Rightarrow doS \Rightarrow domC \Rightarrow domiS \Rightarrow domirB \Rightarrow domireS \Rightarrow domire

Dieser Prozess entspricht dem Einlesen des Wortes in einem endlichen Automaten. Es gibt einen entsprechenden Automaten, dessen Nichtterminalsymbole den Zuständen entsprechen und in dem es für jede Regel X \to aY eine Transition (X,a,Y) im Automaten gibt. Der Automat zur Beispielgrammatik ist im Bild dargestellt.

Quellen[Bearbeiten]

  1. Lutz Engelmann (Hrsg.): Kleiner Leitfaden Informatik und ihre Anwendung. paetec, Berlin 2000, ISBN 3-89517-615-X.
  2. Peter Rechenberg, Gustav Pomberg (Hrsg.): Informatik-Handbuch. Hanser, München/Wien 2006, ISBN 978-3-446-40185-3.