Computerlinguistik

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

In der Computerlinguistik (CL), oder linguistischen Datenverarbeitung (LDV),[1] wird untersucht, wie natürliche Sprache in Form von Text- oder Sprachdaten mit Hilfe des Computers algorithmisch verarbeitet werden kann. Sie ist Schnittstelle zwischen Sprachwissenschaft und Informatik.

Geschichte[Bearbeiten]

Computerlinguistik lässt sich als Terminus (oder dessen Umschreibung) jedenfalls in die sechziger Jahre des 20. Jahrhunderts zurückverfolgen.[2] Als Aufgabenstellung war sie mit den Anfängen der künstlichen Intelligenz eigentlich schon nahegelegt und Chomskys Syntactic Structures von 1957 präsentierte die Sprache in einem entsprechend passenden neuen formalen Gerüst. Hinzu kamen die Sprachlogiken von Saul Kripke und Richard Montague. Aber die teilweise aus dem US-Verteidigungsbudget sehr hoch geförderten Forschungen brachten nicht die erhofften Durchbrüche. Gerade auch die Koryphäen Chomsky und Weizenbaum beschwichtigten die Erwartungen an Automatisierungen von Sprachübersetzung. Der Wende von behavioristischen Wissenschaftskonzeptionen zu mentalistischen (Chomsky) folgten umfassende Konzipierungen in den Kognitionswissenschaften.

In den siebziger Jahren erschienen dann zunehmend häufiger Publikationen mit dem Begriff Computerlinguistik im Titel. Es gab bereits finanziell aufwändige Versuche exegetischer Anwendungen (Konkordanzen, Wort- und Formstatistik), aber auch schon größere Projekte zur maschinellen Sprachanalyse und zu Übersetzungen. Die ersten Computerlinguistik-Studiengänge in Deutschland wurden an der Universität des Saarlandes und in Stuttgart eingerichtet. Die Computerlinguistik bekam mit der Verbreitung von persönlich gebrauchten Computern (PC) und mit dem Aufkommen des Internets neue Anwendungsgebiete. Im Gegensatz zu einer Internetlinguistik, die insbesondere menschliches Sprachverhalten und die darüber induzierten Sprachbildungen im und mittels Internet untersucht, entstand in der Computerlinguistik eine stärkere informatisch-praktische Ausrichtung. Doch gab das Fach die klassischen philosophisch-linguistischen Fragen nicht ganz auf und wird heute in theoretische und praktische Computerlinguistik unterschieden.

Gegenwärtige Aufgabe der Computerlinguistik[Bearbeiten]

„Computerlinguistik erforscht die maschinelle Verarbeitung natürlicher Sprachen. Sie erarbeitet die theoretischen Grundlagen der Darstellung, Erkennung und Erzeugung gesprochener und geschriebener Sprache durch Maschinen.“

– Universität München

Das Saarbrücker Pipelinemodell[Bearbeiten]

Computer sehen Sprache entweder in der Form von Schallinformation (wenn die Sprache akustisch vorliegt) oder in der Form von Buchstabenketten (wenn die Sprache in Schriftform vorliegt). Um die Sprache zu analysieren, arbeitet man sich schrittweise von dieser Eingangsrepräsentation in Richtung Bedeutung vor und durchläuft dabei verschiedene sprachliche Repräsentationsebenen. In praktischen Systemen werden diese Schritte typischerweise sequentiell durchgeführt, daher spricht man vom Pipelinemodell, mit folgenden Schritten:

Spracherkennung
Falls der Text als Schallinformation vorliegt, muss er erst in Textform umgewandelt werden.
Tokenisierung
Die Buchstabenkette wird in Wörter, Sätze etc. segmentiert.
Morphologische Analyse
Personalformen oder Fallmarkierungen werden analysiert, um die grammatische Information zu extrahieren und die Wörter im Text auf Grundformen zurückzuführen, wie sie z. B. im Lexikon stehen.
Syntaktische Analyse
Die Wörter jedes Satzes werden auf ihre strukturelle Funktion im Satz hin analysiert (z. B. Subjekt, Objekt, Modifikator, Artikel, etc.)
Semantische Analyse
Den Sätzen bzw. ihren Teilen wird Bedeutung zugeordnet. Dieser Schritt umfasst potentiell eine Vielzahl verschiedener Einzelschritte, da Bedeutung schwer fassbar ist.
Dialog- und Diskursanalyse
Die Beziehungen zwischen aufeinander folgenden Sätzen werden erkannt: Im Dialog könnte das z. B. Frage ↔ Antwort sein, im Diskurs beispielsweise eine Aussage und ihre Begründung, oder eine Aussage und ihre Einschränkung.

Es ist allerdings nicht der Fall, dass sämtliche Verfahren der Computerlinguistik diese komplette Kette durchlaufen. Die zunehmende Verwendung von maschinellen Lernverfahren hat zu der Einsicht geführt, dass auf jeder der Analyseebenen statistische Regelmäßigkeiten existieren, die zur Modellierung sprachlicher Phänomene genutzt werden können. Beispielsweise verwenden viele aktuelle Modelle der maschinellen Übersetzung Syntax nur in eingeschränktem Umfang und Semantik so gut wie gar nicht; stattdessen beschränken sie sich darauf, Korrespondenzmuster auf Wortebene auszunutzen.[3]

Beispiele für Probleme der Sprachverarbeitung[Bearbeiten]

  • Auflösung syntaktischer Mehrdeutigkeiten. In einigen Fällen lässt sich ein Satz auf mehrere Arten analysieren und deuten. Die Richtige auszuwählen, erfordert manchmal semantische Information über den Sprechakt und die Intention der Sprecher, mindestens jedoch statistisches Vorwissen über das gemeinsame Auftreten von Wörtern.
Beispiel: „Peter sah Maria mit dem Fernglas“ – hier ist nicht zwangsläufig klar, ob Peter Maria gesehen hat, die ein Fernglas in der Hand hielt, oder ob Peter Maria mit Hilfe eines Fernglases sehen konnte.
  • Bestimmen der Semantik. Die gleiche Wortform kann je nach Kontext eine andere Bedeutung aufweisen (vergleiche Homonym, Polysem). Man muss die für den Kontext zutreffende Bedeutung auswählen. Auf der anderen Seite braucht man Formalismen zur Repräsentation von Wortbedeutungen.
  • Erkennen der Absicht einer sprachlichen Äußerung (siehe Pragmatik). Manche Sätze sind nicht wörtlich gemeint. Beispielsweise erwartet man auf die Frage „Können Sie mir sagen, wie spät es ist?“ nicht eine Antwort wie „Ja“ oder „Nein“, sondern bittet damit um Auskunft über die Uhrzeit.

Anwendungen in der Praxis[Bearbeiten]

Praktische Computerlinguistik ist ein Begriff, der sich im Lehrangebot einiger Universitäten etabliert hat. Solche Ausbildungsgänge sind nahe an konkreten Berufsbildern um die informatisch-technische Wartung und Entwicklung von sprachverarbeitenden Maschinen und ihrer Programme. Dazu gehören zum Beispiel:

Institutionen[Bearbeiten]

Studienmöglichkeiten[Bearbeiten]

Computerlinguistik kann man im deutschsprachigen Raum an verschiedenen Hochschulen als eigenständiges Fach mit verschiedenen Abschlussmöglichkeiten studieren. Diplom- und Magisterprogramme sind dabei inzwischen am Auslaufen und können im Allgemeinen nicht mehr neu begonnen werden. Sie wurden durch Bachelor- und Masterprogramme ersetzt. Die Studiengänge können sehr unterschiedliche Namen haben und haben unterschiedliche Profile (mehr/weniger Sprachwissenschaft bzw. Informatik, Anbindung an die Kognitionswissenschaft etc.). Als Studiengang wird die CL auch als linguistische Datenverarbeitung oder maschinelle Sprachverarbeitung[4] bezeichnet. Die Computerlinguistik als Studienfach ist als Kleines Fach eingestuft, eine Übersicht über die Studienmöglichkeiten zeigt die Kartierung der Arbeitsstelle Kleine Fächer.[5]

Die folgende Liste ist nicht vollständig, umfasst aber die größten Institute im deutschsprachigen Raum mit grundständigen Studiengängen:

Schulen[Bearbeiten]

  • Computational Linguistics Fall School: Seit 2001 regelmäßig alle zwei Jahre stattfindende Herbstschule der Deutschen Gesellschaft für Sprachwissenschaft in englischer Sprache.
  • ESSLLI: European Summer School in Logic, Language and Information
  • EMA Summerschool: European Masters in Language and Speech Technology Summerschool

Tagungen[Bearbeiten]

Organisationen[Bearbeiten]

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  • James Allen: Natural Language Understanding. Redwood City, CA: The Benjamin/Cummings Publishing Company, Inc., 1995, ISBN 0-8053-0334-0
  • Kai-Uwe Carstensen, Christian Ebert, Cornelia Ebert, Susanne Jekat, Ralf Klabunde, Hagen Langer (Hrsg.): Computerlinguistik und Sprachtechnologie. Heidelberg: Spektrum Akademischer Verlag, 3. Auflage, 2010, ISBN 978-3-82-742023-7
  • Peter Eisenberg (Hrsg.): Maschinelle Sprachanalyse. de Gruyter, Berlin/New York 1976. ISBN 3-11-005722-0
  • Ralph Grishman: Computational Linguistics: An Introduction. Cambridge University Press, 1986, ISBN 978-0-52-131038-3
  • Roland Hausser: Foundations of Computational Linguistics: Human-Computer Communication in Natural Language. Springer, 3. Auflage, 2014, ISBN 978-3-64-241430-5
  • Nitin Indurkhya, Fred J. Damerau: Handbook of Natural Language Processing. Chapman and Hall/CRC, 2. Auflage, 2010, ISBN 978-1-42-008592-1
  • Daniel Jurafsky, James H. Martin: Speech and Language Processing - An Introduction to Natural Language Processing, Computational Linguistics and Speech Recognition. Upper Saddle River, New Jersey: Prentice Hall, 2. Auflage 2008, ISBN 978-0-13-187321-6
  • Henning Lobin: Computerlinguistik und Texttechnologie. Paderborn/München: Fink, 2010, ISBN 3-82-523282-4
  • Christopher D. Manning, Hinrich Schütze: Foundations of Statistical Natural Language Processing. Cambridge/MA: MIT Press, 1999, ISBN 0-262-13360-1
  • Ruslan Mitkov (Hrsg.): The Oxford Handbook of Computational Linguistics, Oxford University Press, 2003, ISBN 0-19-823882-7

Weblinks[Bearbeiten]

 Wiktionary: Computerlinguistik – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise[Bearbeiten]

  1. Bátori, I., Krause J., Lutz, H.D. (Hrsg.): Linguistische Datenverarbeitung. Versuch einer Standortbestimmung im Umfeld von Informationslinguistik und Künstlicher Intelligenz. Niemeyer Verlag, Tübingen 1982
  2. David Crystal zum Beispiel äußerte sich Mitte der 60er Jahre mehrfach hierzu in Medien und Aufsätzen. In England war freilich auch die Tradition von Alan Turing virulent, seit den 30er Jahren.
  3. Peter Kolb: Was ist statistische maschinelle Übersetzung?
  4. http://www.ims.uni-stuttgart.de/lehre/msv-bsc/
  5. siehe http://www.kleinefaecher.de/kartierung/?fach=26#otop
  6. About Coling
  7. [1]
  8. [2]