Phonetik

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Phonetik (gr. φωνητικός phōnētikós „zum Tönen, Sprechen gehörig“, von φωνή phōnḗ „Stimme“)[1] ist eine Disziplin, die Sprachlaute unter den folgenden Aspekten untersucht: Lautproduktion in Kehlkopf, Rachen-, Mund- und Nasenbereich, die akustischen Eigenschaften der Laute und die Lautwahrnehmung und -verarbeitung durch Ohr und menschliches Gehirn. Die Phonetik ist ein eigenständiges interdisziplinäres Fachgebiet zwischen Linguistik, Biologie, Akustik, Neurowissenschaften und Medizin.[2] Der Gegenstandsbereich der Phonetik ist die gesprochene Sprache in all ihren Realisierungen.

Die Phonetik untersucht ebenso wie die Phonologie die gesprochene Sprache, jedoch unter einem anderen Aspekt. Die Phonologie als Teilgebiet der Sprachwissenschaft klassifiziert Laute in einzelnen Sprachen aufgrund ihrer bedeutungsunterscheidenden Funktion. Die Phonetik dagegen befasst sich mit den physikalischen, neurologischen und physiologischen Aspekten, die bei der Lautproduktion und -wahrnehmung relevant sind und bedient sich dabei naturwissenschaftlicher Methoden.

Angrenzende Fächer und verwandte Fachdisziplinen[Bearbeiten | Quelltext bearbeiten]

Die sprachwissenschaftliche Disziplin der Phonologie ist mit der Phonetik eng verwandt. Die Phonologie klassifiziert Laute aufgrund ihrer Verteilung und Funktion in einer spezifischen Sprache. Aufgrund von Minimalpaaren wie z. B. rot und tot identifiziert die Phonologie die kleinsten bedeutungsunterscheidenden Laute einer Sprache, die Phoneme (hier: /ʀ/ und /t/). Im Gegensatz zur Phonologie untersucht die Phonetik die konkreten artikulatorischen und akustischen Merkmale der Laute aller Sprachen, d. h. sie beschäftigt sich damit, wie sprachliche Laute gebildet werden, wie sie durch das menschliche Ohr und Gehirn aufgenommen und weiterverarbeitet werden und wie man sprachliche Laute akustisch messen und beschreiben kann.

Die Phonetik ist ein interdisziplinäres Fachgebiet, das Ergebnisse und Methoden aus den Fächern Anatomie, Physiologie, Neurologie, Physik und Mathematik nutzt. Für die Beschreibung der Lautbildung mit Lunge, Kehlkopf sowie Mund- und Nasenraum nutzt die Phonetik Erkenntnisse aus der Anatomie und der Physiologie, für die Beschreibung der Lautverarbeitung durch das menschliche Gehirn Ergebnisse der Neurologie. Die Physik, speziell das Teilgebiet der Akustik, ist relevant für die Beschreibung der Schallübertragung der sprachlichen Laute, ebenso wie einige Erkenntnisse aus der Mathematik, die das mathematische Gerüst zur Beschreibung von Schallwellen bietet (z. B. Fourier-Analysis).

Die Phonetik wird in vielen Publikationen als interdisziplinäres naturwissenschaftliches Fachgebiet gesehen,[2] viele Einführungen in die Sprachwissenschaft führen die Phonetik aber auch als Teilbereich der Sprachwissenschaft und behandeln sie gemeinsam mit den sprachwissenschaftlichen Disziplinen Phonologie, Morphologie und Syntax.[3]

Neben der Phonetik und Phonologie haben u. a. auch die Fächer Sprechwissenschaft, Sprecherziehung, Rhetorik, Sprechkunst, Klinische Linguistik, Logopädie und Sprachheilpädagogik gesprochene Sprache zum Inhalt.

Geschichte der Phonetik[Bearbeiten | Quelltext bearbeiten]

Jean-Pierre Rousselot gehörte zu den Pionieren der Sprachaufzeichnung für wissenschaftliche Zwecke. Sein zentrales Werk dazu war Principes de Phonétique Expérimentale von 1897. Es beeinflusste viele Forscher nach ihm. Im Bild sein Apparat zur Sprachaufzeichnung (um 1900).

Die Ursprünge der Phonetik gehen zurück bis in eine Periode zwischen 800 und 150 v. Chr. auf dem indischen Subkontinent, wo indische Linguisten die Phonetik des Sanskrit beschreiben.[4]

In der europäischen Antike und in der Renaissance wurden die Grundlagen für eine systematische Beschreibung der Artikulationsorgane gelegt. So hat sich bereits in der Antike der Arzt Galenus mit dem Aufbau des Kehlkopfs beschäftigt, was allerdings im 12. Jahrhundert schon wieder in Vergessenheit geraten war. So blieben die Erkenntnisse und Vorstellungen im Mittelalter zur sprachlichen Lautproduktion und -rezeption sehr rudimentär, was sich erst in der Renaissance wieder änderte: So kann auch Leonardo da Vinci als Vorläufer der Phonetiker genannt werden, denn seine Studien an sezierten Leichen trugen zum Wissen über den Aufbau des Kehlkopfes bei.[5][6]

Mit dem Aufstieg der Naturwissenschaften in der Neuzeit entstanden erst die Voraussetzungen für die Phonetik als naturwissenschaftliche Disziplin, z. B. die akustische Schwingungslehre des Mathematikers Leonhard Euler, mit der die akustischen Eigenschaften von Vokalen genauer beschrieben werden konnten.[6] Beispielsweise veröffentlichte Alexander Melville Bell mit seiner Schrift Visible Speech 1867 eine phonetische Schrift, mit der er versucht, Vokale präzise zu beschreiben. Ludimar Hermann gelang es 1889 und 1890 mit Hilfe mathematischer Prinzipien Stimm- und Lautkurven zu analysieren; er prägte auch den Begriff Formant.[7]

Einen Aufbruch erlebte die Phonetik im 19. Jahrhundert, als technische Apparate wie der Phonograph zur Verfügung standen, mit denen erstmals sprachliche Laute aufgezeichnet und analysiert werden konnten. Gleichzeitig entwickelte sich um diese Zeit auch die Erkenntnis unter den artikulatorischen Phonetikern, dass „Sprachlaute“ ein eigenes Beschreibungssystem benötigen, weil in den meisten Sprachen keine eindeutige Beziehung zwischen Buchstaben und Lauten mehr besteht und damit die gängigen Alphabete zur Beschreibung der Laute einer Sprache nicht ausreichen. Diese Aktivitäten kulminierten in der Gründung der International Phonetics Association 1884 und der Veröffentlichung des ersten Internationalen Phonetischen Alphabets (IPA) 1888.[8][9]

Im deutschsprachigen Raum wurde die Phonetik erstmals 1919 als eigenständige Disziplin anerkannt, als sie als Haupt- und Nebenfach bei Promotionen an der Philosophischen Fakultät der Universität Hamburg zugelassen wurde. Eine erste planmäßige außerordentliche Professur für Phonetik in Deutschland wurde 1922 an der Hansischen Universität Hamburg eingerichtet.[10]

Weitere wichtige technische Entwicklungen für die Phonetik waren z. B. die Röntgenbildgebung und die Sonografie Anfang des 20. Jahrhunderts. Weitere Fortschritte in der Phonetik sind durch technische Entwicklungen zu erwarten. So sind in den letzten Jahren z. B. große Fortschritte in Echtzeit-MRTs gemacht worden.

Teilbereiche der Phonetik[Bearbeiten | Quelltext bearbeiten]

Hauptarbeitsgebiete[Bearbeiten | Quelltext bearbeiten]

Die allgemeine Phonetik beschäftigt sich mit den bei konkreten Sprechakten physikalisch ablaufenden Prozessen sowie deren messtechnischer Erfassung. Sie hat die folgenden Teilgebiete:

  • Die artikulatorische Phonetik ist die Lehre des Aufbaus und der Funktion des Sprechapparats sowie dessen Einsatz bei der Produktion von Sprache.
  • Die akustische Phonetik untersucht die physikalische Struktur der Schallwellen als Träger der sprachlichen Laute.
  • Die auditive oder perzeptive Phonetik befasst sich mit der Wahrnehmung der sprachlichen Laute durch den Hörer und der jeweiligen Rolle des Gehörs und des Gehirns

Ferner gibt es das Arbeitsgebiet der systematischen Phonetik, die sich um die systematische Beschreibung der Laute (Phone) der Sprachen der Welt bemüht, einschließlich der Beschreibung der Konsonanten und Vokale aller menschlichen Sprachen und deren Transkription. Zur systematischen Phonetik zählt auch die Beschreibung der suprasegmentale Phonetik (Prosodie), d. h. die Beschreibung einzelner Laute und deren Verwendung in der Silbe bzw. im Wort.

Artikulatorische Phonetik[Bearbeiten | Quelltext bearbeiten]

Hauptartikel: Artikulatorische Phonetik

Die artikulatorische Phonetik befasst sich mit dem Zusammenspiel von Atmung (Erzeugung des notwendigen Luftdrucks in der Lunge), der Phonation im Kehlkopf und der Artikulation im Rachen-, Mund- und Nasenraum. Durch die Atmung wird in der Lunge der für den Schall notwendige Luftdruck erzeugt. Im Kehlkopf sitzen die Stimmlippen, die die Schwingungen in der Luft erzeugen, die für den Klang verantwortlich sind. Schließlich wirkt der Rachen-, Mund- und Nasenraum (der Vokaltrakt) je nach Stellung von z. B. Gaumen oder Zunge als Filter, der den Klang weiter modifiziert.[11]

Die artikulatorische Phonetik interessiert sich insbesondere für die Rolle und Position der beweglichen Teile in Kehlkopf und Mundraum, also Zunge, Lippen, Unterkiefer, Gaumensegel (Velum) mit dem Zäpfchen (Uvula), Rachen und Glottis. Je nach Position dieser Artikulationsorgane werden unterschiedliche sprachliche Laute erzeugt. Die Phonetik spricht von verschiedenen Artikulationsstellen oder -orten, wenn sie die Orte beschreibt, an denen (Teile der) Zunge und/oder die Lippen sich befinden, wenn Konsonanten erzeugt werden. So spricht man z. B. bei den Lauten [b] oder [m] von bilabialen Lauten, weil hier die Ober- und Unterlippe bei der Lautbildung hauptsächlich beteiligt sind. Bei anderen Konsonanten wie z. B. [d] oder [g] spielt die Position der Zunge eine Rolle (dental, hinter den Oberkieferzähnen, oder velar, beim Gaumensegel).

Die artikulatorische Phonetik verfügt über verschiedene experimentelle Untersuchungstechniken, um das Kehlkopfverhalten und das Verhalten der Artikulatoren zu erfassen. Für den Kehlkopf verwendet man Kehlkopfspiegel (Laryngoskop), Laryngographen und Photoelektroglottographie. Zur Erfassung der artikulatorischen Geometrie verwendet man die Palatographie, Röntgenbilder, elektromagnetische Artikulographie, Ultraschallvermessung (Sonografie) und Magnetresonanztomographie bzw. Echtzeit-Magnetresonanztomographie.[12]

Akustische Phonetik[Bearbeiten | Quelltext bearbeiten]

Hauptartikel: Akustische Phonetik
Spektrogramm der Laute [i, u, ɑ] in amerikanischem Englisch, Formanten sind deutlich sichtbar

Die Grundlagen der akustische Phonetik stammen aus einem Teilbereich der Physik, der Akustik. Die akustische Phonetik beschreibt die Erzeugung und Übertragung der Schallschwingungen, die durch sprachliche Laute erzeugt werden. Unter Schall versteht man minimale Luftdruckschwankungen, die hörbar sind. Sprachliche Laute gehören zu einem spezieller Typ von Schallschwingungen, nämlich den Klängen. Im Gegensatz zu reinen Tönen (z. B. aus der Musik) sind Klänge zusammengesetzte Schallschwingungen. Im Gegensatz zu Geräuschen, deren Amplitudenwerte rein zufällig sind, sind Klänge periodische Schallschwingungen. In der Akustik werden Klänge (also auch sprachliche Laute) als Sinoidalschwingungen beschrieben.[13]

Die Ergebnisse der Akustik sind für die Phonetik relevant, weil die während der Sprachlautproduktion Schallwellen erzeugt werden, die vom Kehlkopf über den Rachen-, Mund- und Nasenraum wandern. Da der Rohschall, der im Kehlkopf entsteht, je nach Position der Artikulatoren weiter gefiltert wird, ändern sich auch die Resonanzen im menschlichen Vokaltrakt. Deshalb entstehen bei sprachlichen Lauten auch keine reinen Resonanzfrequenzen für den Vokalschall, sondern die akustischer Energie konzentriert sich auf verschiedene Frequenzbänder, sogenannte Formanten.

Die akustische Phonetik verwendet verschiedene technische Apparaturen, um die Akustik der sprachlichen Äußerungen sichtbar zu machen. Zu den wichtigsten Messgeräten zählt das Oszillogramm, das die Schallschwingungen als Graph entlang einer Zeitachse darstellt. Häufig will man neben den Schallschwingungen auch darstellen, welche Frequenzen in einem sprachlichen Signal enthalten sind, und wie dominant sie sind. Dies gelingt, wenn man die akustische Information der Schallschwingungen mittels der mathematischen Methode der Fourier-Transformation in ein Spektrogramm umwandelt, eine bildliche Darstellung des Frequenzspektrums eines Signals. Damit kann man unter anderem die Resonanzen der sprachlichen Laute inklusive der Formanten dargestellt werden können. Neuere Entwicklungen im Bereich der akustischen Phonetik sind die Arbeit mit Spektralanalysen, Grundfrequenzbestimmungen, automatische Spracherkennung und Sprachsynthese.[14][15]

Auditorische oder perzeptive Phonetik[Bearbeiten | Quelltext bearbeiten]

Anatomie des Ohres mit äußerem Gehörgang, Mittelohr mit Hammer, Amboss und Steigbügel (in grau) und Innenohr mit Schnecke oder Cochlea (in violett)

Die auditorische oder perzeptive Phonetik befasst sich mit der Aufnahme und Verarbeitung sprachlicher Laute im Gehörorgan und im auditorischen Nervensystem.

Die Schallwellen, die durch sprachliche Laute produziert werden, werden über das äußere Ohr und das Mittelohr in das Innenohr geleitet, wo das eigentliche Hörorgan, das Corti-Organ sitzt. Wie die Sprache im Ohr und im menschlichen Gehirn verarbeitet wird, ist Teil verschiedener Hörtheorien, darunter die Resonanzhypothese und die Wanderwellentheorie von Georg von Békésy.

Wichtige Untersuchungsgebiete der auditorischen Phonetik ist der Zusammenhang zwischen der subjektiven Wahrnehmung der sprachlichen Laute und der physikalisch messbaren Parameter des akustischen Signals, etwa der Lautstärke und des messbaren Schalldruckpegels (in Dezibel, dB) sowie der Tonhöhe. Bahnbrechend für die perzeptive Phonetik waren die Forschungen zur auditiven Sprachwahrnehmung z. B. durch die Bell Laboratories Mitte des 20. Jahrhunderts, die feststellen wollten, wie stark das Sprachsignal reduziert werden kann, ohne dass es unverständlich wird, um damit die Kapazität der Telefonleitungen besser ausschöpfen zu können.[16]

Wichtige Ergebnisse zur auditiven Sprachwahrnehmung aus der Phonetik sind unter anderem die Erkenntnis, dass eine sprachliche Äußerung aus einem kontinuierlichen akustischen Signal besteht. In den Anfängen der Phonetik hatte man die Erwartung, dass sich in den Messungen sprachlicher Äußerungen eindeutig abgrenzbare Segmente (Vokale, Konsonanten) identifizieren und auch synthetisch erzeugen zu können. Wie sich aber mit den Experimenten des Pattern-Playback-Synthetisator der Haskins-Laboratorien herausstellte, war dies zwar für Vokale möglich, aber nicht für Konsonanten. Aus Sprachwahrnehmungsexperimenten stammt die Erkenntnis, dass Menschen sprachlichen Input in klar abgegrenzte Kategorien unterteilen: Variiert man den sprachlichen Input leicht (z. B. von [bæ] über [dæ] nach [gæ]), so nehmen Probanden vor allem drei Kategorien wahr (kategoriale Wahrnehmung). Nimmt man musikalische Töne oder Geräusche als Input, so können Probanden wesentlich mehr feine Unterschiede benennen (kontinuierliche Wahrnehmung). Aus diesem und anderen Experimenten entwickelten die Forscher der Haskins-Laboratorien ihre Motor-Theorie der Sprachwahrnehmung.[17][18]

Weitere mögliche Klassifikationen der Teilbereiche der Phonetik[Bearbeiten | Quelltext bearbeiten]

Wenn man phonetische Teilbereiche nach ihrem methodischen Zugang klassifiziert, kann man sie wie folgt unterscheiden:[19]

  • Deskriptive Phonetik: Beschreibung und Analyse von Lauten durch Verwendung des Gehörs („Ohrenphonetik“)
  • Symbolphonetik: Darstellung des Gehörten mit dem Internationalen Phonetischen Alphabet (IPA)
  • Instrumental- oder Signalphonetik: Erforschung sprachlicher Laute mittels mechanischer und elektronischer Geräte
  • Experimentalphonetik: Erforschung des Zusammenhangs zwischen einer lautlichen Äußerung und der Wahrnehmung von Versuchspersonen im Experiment

Angewandte Phonetik[Bearbeiten | Quelltext bearbeiten]

Die Ergebnisse der allgemeinen und systematischen Phonetik fließen in Teilbereiche der angewandten Phonetik ein.

In der forensischen Phonetik kommt phonetisches Wissen für die Untersuchung von sprechertypischen Stimm- und Sprecheigenschaften zum Einsatz, z. B. mit forensischen Fragestellungen im Bereich der Kriminalistik bzw. Kriminaltechnik oder beim Verfassen von forensischen Gerichtsgutachten. In Deutschland arbeiten sogenannte forensische Sachverständige an fünf Standorten (Bundeskriminalamt Wiesbaden, LKA Berlin, LKA Brandenburg, LKA Düsseldorf und BLKA München) oder als private Gutachter.

Phonetisches Grundwissen fließt auch in die Orthoepie ein, die Lehre von bzw. Regelung der normierten Standardlautung einer Standardsprache, die frei von regionalen Einflüssen sein soll (Standardaussprache). Ferner profitiert die Patholinguistik von Ergebnissen der Phonetik, wenn sie pathologische Abweichungen im Hinblick auf linguistisch gestörte Sprache (Sprach-, Sprech-, Stimm-, Schluck-, Atem- und Hörstörungen) untersucht. Ähnliches gilt für die Pädolinguistik, die den Erwerb der Sprechfertigkeit und individuelle Lautentwicklung beim Kind untersucht.

Literatur[Bearbeiten | Quelltext bearbeiten]

Einführungen[Bearbeiten | Quelltext bearbeiten]

Phonetik von Einzelsprachen[Bearbeiten | Quelltext bearbeiten]

  • Thomas Becker: Einführung in die Phonetik und Phonologie des Deutschen. Wissenschaftliche Buchgesellschaft, Darmstadt 2012, ISBN 978-3534249497.
  • Peter Ladefoged, Ian Maddieson: The Sounds of the World’s Languages. Wiley-Blackwell, Oxford 1996, ISBN 0-631-19814-8.
  • Elissa Pustka: Einführung in die Phonetik und Phonologie des Französischen, 2. Auflage. Erich Schmidt Verlag, Berlin 2016, ISBN 978-3503166312.
  • Sven Staffeldt: Einführung in die Phonetik, Phonologie und Graphematik des Deutschen. Ein Leitfaden für den akademischen Unterricht. Stauffenburg, Tübingen 2010, ISBN 978-3-86057-295-5.

Artikulatorische, akustische und auditorische Phonetik[Bearbeiten | Quelltext bearbeiten]

  • Fabian Bross: Grundzüge der Akustischen Phonetik (PDF; 1,3 MB). In: Helikon. A Multidisciplinary Online Journal, 1, 2010, S. 89–104.
  • Keith Johnson: Acoustic and Auditory Phonetics, 3. Auflage. Wiley-Blackwell, Oxford 2012, ISBN 978-1405194662.
  • Peter Ladefoged: Elements of Acoustic Phonetics. Chicago 1996, ISBN 0-226-46764-3.
  • Raymond D. Kent, Charles Read: Acoustic Analysis of Speech. San Diego 2002, ISBN 0-7693-0112-6.
  • Joachim M.H. Neppert: Elemente einer Akustischen Phonetik, 4. Auflage. Hamburg 1999, ISBN 3-87548-154-2.
  • Henning Reetz: Artikulatorische und Akustische Phonetik. Trier 2003, ISBN 3-88476-617-1.
  • Henning Reetz, Allard Jongman: Phonetics: Transcription, Production, Acoustics, and Perception. Wiley-Blackwell, Oxford 2008, ISBN 978-0631232261.
  • Anthony J. Seikel, Douglas W. King, David G. Drumright: Anatomy and Physiology for Speech, Language, and Hearing, 3. Auflage. San Diego 2000, ISBN 0-7693-0057-X.

Spezialliteratur[Bearbeiten | Quelltext bearbeiten]

  • William J. Hardcastle, John Laver, Fiona A. Gibbon: The Handbook of Phonetic Sciences, 2. Auflage. Wiley-Blackwell, Boston 2012, ISBN 978-1118358207.
  • The International Phonetic Association: Handbook of the International Phonetic Association – A Guide. New York 1999, ISBN 0-521-63751-1.

Weblinks[Bearbeiten | Quelltext bearbeiten]

 Wiktionary: Phonetik – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
 Commons: Phonetics – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Etymologie nach Wahrig, Deutsches Wörterbuch, Stichwort: Phonetik
  2. a b Hadumod Bußmann: Lexikon der Sprachwissenschaft. Alfred Kröner, Stuttgart 1983, ISBN 3-520-45201-4, S. 385.
  3. William O'Grady, Michael Dobrovolsky, Francis Katamba: Contemporary Linguistics: An Introduction. 4. Auflage. Longman, London / New York 1997, ISBN 0-582-24691-1, S. 18.
  4. R. H. Robins: A Short History of Linguistics. 4. Auflage. Longman, London / New York 1997, ISBN 0-582-24994-5, S. 175.
  5. Guilio Panconcelli-Calzia: Geschichtszahlen der Phonetik; Quellenatlas der Phonetik. Benjamins, Amsterdam / Philadelphia 1994, ISBN 90-272-0957-X, S. 18.
  6. a b Bernd Pompino-Marschall: Einführung in die Phonetik. 3. Auflage. Walter de Gruyter, Berlin / New York 2009, ISBN 978-3-11-022480-1, S. 5–6.
  7. Guilio Panconcelli-Calzia: Geschichtszahlen der Phonetik; Quellenatlas der Phonetik. Benjamins, Amsterdam / Philadelphia 1994, ISBN 90-272-0957-X, S. 54, 60.
  8. David Crystal: The Cambridge Encyclopdia of Language. 2. Auflage. Cambridge University Press, Cambridge 1997, ISBN 0-521-55967-7, S. 160–161.
  9. Bernd Pompino-Marschall: Einführung in die Phonetik. 3. Auflage. Walter de Gruyter, Berlin / New York 2009, ISBN 978-3-11-022480-1, S. 6–7.
  10. Guilio Panconcelli-Calzia: Geschichtszahlen der Phonetik; Quellenatlas der Phonetik. Benjamins, Amsterdam / Philadelphia 1994, ISBN 90-272-0957-X, S. 77–78.
  11. Bernd Pompino-Marschall: Einführung in die Phonetik. 3. Auflage. Walter de Gruyter, Berlin / New York 2009, ISBN 978-3-11-022480-1, S. 18.
  12. Bernd Pompino-Marschall: Einführung in die Phonetik. 3. Auflage. Walter de Gruyter, Berlin / New York 2009, ISBN 978-3-11-022480-1, S. 78–85.
  13. Bernd Pompino-Marschall: Einführung in die Phonetik. 3. Auflage. Walter de Gruyter, Berlin / New York 2009, ISBN 978-3-11-022480-1, S. 87–91.
  14. Bernd Pompino-Marschall: Einführung in die Phonetik. 3. Auflage. Walter de Gruyter, Berlin / New York 2009, ISBN 978-3-11-022480-1, S. 108–109, 132.
  15. Henning Reetz, Allard Jongman: Phonetics: Transcription, Production, Acoustics, and Perception. Wiley-Blackwell, Oxford 2009, ISBN 978-0-631-23226-1, S. 140–160.
  16. Bernd Pompino-Marschall: Einführung in die Phonetik. 3. Auflage. Walter de Gruyter, Berlin / New York 2009, ISBN 978-3-11-022480-1, S. 145–147, 153–158.
  17. Bernd Pompino-Marschall: Einführung in die Phonetik. 3. Auflage. Walter de Gruyter, Berlin / New York 2009, ISBN 978-3-11-022480-1, S. 160–171.
  18. Henning Reetz, Allard Jongman: Phonetics: Transcription, Production, Acoustics, and Perception. Wiley-Blackwell, Oxford 2009, ISBN 978-0-631-23226-1, S. 263–273.
  19. Bernd Pompino-Marschall: Einführung in die Phonetik. 3. Auflage. Walter de Gruyter, Berlin / New York 2009, ISBN 978-3-11-022480-1, S. 2–3.