Analysis

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Der Titel dieses Artikels ist mehrdeutig. Eine Beschreibung der Philosophiezeitschrift Analysis befindet sich unter Analysis (Zeitschrift).

Die Analysis [aˈnalyzɪs] (griechisch ανάλυσις análysis ‚Auflösung‘, altgriechisch ἀναλύειν analýein ‚auflösen‘) ist ein Teilgebiet der Mathematik, dessen Grundlagen von Gottfried Wilhelm Leibniz und Isaac Newton als Infinitesimalrechnung unabhängig voneinander entwickelt wurden. Die grundlegende Analysis befasst sich mit Grenzwerten von Folgen und Reihen sowie mit Funktionen reeller Zahlen und deren Stetigkeit, Differenzierbarkeit und Integration. Die Methoden der Analysis sind in allen Natur- und Ingenieurwissenschaften von großer Bedeutung.

Die Verallgemeinerung des Funktionsbegriffes in der Analysis auf Funktionen mit Definitions- und Zielmenge in den komplexen Zahlen ist Bestandteil der Funktionentheorie.

Teilgebiete der Analysis[Bearbeiten]

Gottfried Wilhelm Leibniz
Isaac Newton

Die Analysis hat sich zu einem sehr allgemeinen, nicht klar abgrenzbaren Oberbegriff für vielfältige Gebiete entwickelt. Neben der Differential- und Integralrechnung umfasst die Analysis weitere Gebiete, welche darauf aufbauen. Dazu gehören die Theorie der gewöhnlichen und partiellen Differentialgleichungen, die Variationsrechnung, die Vektoranalysis, die Maß- und Integrationstheorie und die Funktionalanalysis.[1]

Eine ihrer Wurzeln hat auch die Funktionentheorie in der Analysis. So kann die Fragestellung, welche Funktionen die Cauchy-Riemannschen-Differentialgleichungen erfüllen, als Fragestellung der Theorie partieller Differentialgleichungen verstanden werden.

Je nach Auffassung können auch die Gebiete der harmonischen Analysis, der Differentialgeometrie mit den Teilgebieten Differentialtopologie und Globale Analysis, der analytischen Zahlentheorie, der Nichtstandardanalysis, der Distributionentheorie und der mikrolokalen Analysis ganz oder in Teilen dazu gezählt werden.

Eindimensionale reelle Analysis[Bearbeiten]

Differentialrechnung[Bearbeiten]

Hauptartikel: Differentialrechnung

Bei einer linearen Funktion bzw. einer Geraden

g(x) = mx + c

heißt m die Steigung und c der y-Achsen-Abschnitt oder Ordinatenabschnitt der Geraden. Hat man nur 2 Punkte (x_0, y_0) und (x_1, y_1) auf einer Geraden, so kann die Steigung berechnet werden durch

m = \frac{y_1 - y_0}{x_1 - x_0}.

Bei nicht linearen Funktionen wie z. B. f(x) = x^2 kann die Steigung so nicht mehr berechnet werden, da diese Kurven beschreiben und somit keine Geraden sind. Jedoch kann man an einen Punkt (x_0, f(x_0)) eine Tangente legen, die wieder eine Gerade darstellt. Die Frage ist nun, wie man die Steigung einer solchen Tangente an einer Stelle x_0 berechnen kann. Wählt man eine Stelle x_1 ganz nahe bei x_0 und legt eine Gerade durch die Punkte (x_0, f(x_0)) und (x_1, f(x_1)), so ist die Steigung dieser Sekante nahezu die Steigung der Tangente. Die Steigung der Sekante ist (s. o.)

m = \frac{f(x_1) - f(x_0)}{x_1 - x_0}.

Diesen Quotienten nennt man den Differenzenquotienten oder mittlere Änderungsrate. Wenn wir nun die Stelle x_1 immer weiter an x_0 annähern, so erhalten wir per Differenzenquotient die Steigung der Tangente. Wir schreiben

f'(x_0) = \lim_{x\rightarrow x_0}\frac{f(x) - f(x_0)}{x - x_0}

und nennen dies die Ableitung oder den Differentialquotienten von f in x_0. Der Ausdruck \lim_{x\rightarrow x_0} bedeutet, dass x immer weiter an x_0 angenähert wird, bzw. dass der Abstand zwischen x und x_0 beliebig klein wird. Wir sagen auch: „x geht gegen x_0“. Die Bezeichnung \lim steht für Limes.

f^\prime (x_0) ist der Grenzwert des Differenzenquotienten.

Es gibt auch Fälle, in denen dieser Grenzwert nicht existiert. Deswegen hat man den Begriff Differenzierbarkeit eingeführt. Eine Funktion f heißt differenzierbar an der Stelle x_0, wenn der Grenzwert \lim_{x\rightarrow x_0}\frac{f(x) - f(x_0)}{x - x_0} existiert.

Integralrechnung[Bearbeiten]

Hauptartikel: Integralrechnung

Die Integralrechnung befasst sich anschaulich mit der Berechnung von Flächen unter Funktionsgraphen. Diese Fläche kann durch eine Summe von Teilflächen approximiert werden und geht im Grenzwert in das Integral über.

\int_{a}^{b} f(x)\, \mathrm{d}x :=  \lim_{n \to \infty} \frac{b-a}{n} \sum_{i=0}^{n-1} f\left(a+i \frac{b-a}{n}\right).

Die obige Folge konvergiert, falls f gewisse Bedingungen (wie z. B. Stetigkeit) erfüllt. Diese anschauliche Darstellung (Approximation mittels Ober- und Untersummen) entspricht dem sogenannten Riemann-Integral, das in der Schule gelehrt wird.

In der sogenannten Höheren Analysis werden darüber hinaus weitere Integralbegriffe, wie z. B. das Lebesgue-Integral betrachtet.

Hauptsatz der Integral- und Differentialrechnung[Bearbeiten]

Differentialrechnung und Integralrechnung verhalten sich nach dem Hauptsatz der Analysis in folgender Weise „invers“ zueinander.

Wenn f eine auf einem kompakten Intervall [a,b] stetige reelle Funktion ist, so gilt für x\in(a,b):

{\mathrm d \over \mathrm dx} \left(\int_a^x f(\bar x) \mathrm d\bar x\right)= f(x)

und, falls f zusätzlich auf (a,b) gleichmäßig stetig differenzierbar ist,

\int_a^x\left({\mathrm{d}\over \mathrm{d}\bar x}f(\bar x)\right)\mathrm{d}\bar x = f(x) - f(a).

Deshalb wird die Menge aller Stammfunktionen einer Funktion f auch als unbestimmtes Integral bezeichnet und durch \textstyle \int f(x) \mathrm dx symbolisiert.

Mehrdimensionale reelle Analysis[Bearbeiten]

Beispiel für eine mehrdimensionale Funktion: f(x,y) = y ·sin x2

Viele Lehrbücher unterscheiden zwischen Analysis in einer und Analysis in mehreren Dimensionen. Diese Differenzierung berührt die grundlegenden Konzepte nicht, allerdings gibt es in mehreren Dimensionen eine größere mathematische Vielfalt. Die mehrdimensionale Analysis betrachtet Funktionen \textstyle f : D \subseteq \R^m \to \R^n mehrerer reeller Variablen, die oft als ein Vektor beziehungsweise n-Tupel dargestellt werden.

Die Begriffe der Norm (als Verallgemeinerung des Betrags), der Konvergenz, der Stetigkeit und der Grenzwerte lassen sich analog in mehrere Dimensionen verallgemeinern.

Wichtige Begriffe aus der mehrdimensionalen Differentialrechnung sind die Richtungs- und die partielle Ableitung, welche Ableitungen in einer Variablen beziehungsweise einer Richtung sind. Der Satz von Schwarz stellt sicher, wann partielle beziehungsweise Richtungsableitungen unterschiedlicher Richtungen vertauscht werden dürfen. Außerdem ist der Begriff der totalen Differentiation von Bedeutung. Dieser kann interpretiert werden als die lokale Anpassung einer linearen Abbildung an den Verlauf der mehrdimensionalen Funktion und ist das mehrdimensionale Analogon der (ein-dimensionalen) Ableitung. Der Satz von der impliziten Funktion über die lokale, eindeutige Auflösung impliziter Gleichungen ist eine wichtige Aussage der mehrdimensionalen Analysis und kann als eine Grundlage der Differentialgeometrie verstanden werden.

In der mehrdimensionalen Analysis gibt es unterschiedliche Integralbegriffe wie das Kurvenintegral, das Oberflächenintegral und das Raumintegral. Jedoch von einem abstrakteren Standpunkt aus der Vektoranalysis unterscheiden sich diese Begriffe nicht. Zum Lösen dieser Integrale sind der Transformationssatz als Verallgemeinerung der Substitutionsregel und der Satz von Fubini, welcher es erlaubt Integrale über n-dimensionale Mengen in iterierte Integrale umzuwandeln, von besonderer Bedeutung. Auch die Integralsätze aus der Vektoranalysis von Gauß, Green und Stokes sind in der mehrdimensionalen Analysis von Bedeutung. Sie können als Verallgemeinerung des Hauptsatzes der Integral- und Differentialrechnung verstanden werden.

Funktionalanalysis[Bearbeiten]

Hauptartikel: Funktionalanalysis

Die Funktionalanalysis ist eines der wichtigsten Teilgebiete der Analysis. Die entscheidende Idee in der Entwicklung der Funktionalanalysis war die Entwicklung einer koordinaten- und dimensionsfreien Theorie. Dies brachte nicht nur einen formalen Gewinn, sondern ermöglichte auch die Untersuchung von Funktionen auf unendlichdimensionalen topologischen Vektorräumen.[1] Hierbei werden nicht nur die reelle Analysis und die Topologie miteinander verknüpft, sondern auch Methoden der Algebra spielen eine wichtige Rolle. Aus wichtigen Resultaten der Funktionalanalysis wie es beispielsweise der Satz von Fréchet-Riesz ist, lassen sich zentrale Methoden für die Theorie partieller Differentialgleichungen ableiten. Zudem ist die Funktionalanalysis, insbesondere mit der Spektraltheorie, der geeignete Rahmen zur mathematischen Formulierung der Quantenmechanik und auf ihr aufbauender Theorien.

Theorie der Differentialgleichungen[Bearbeiten]

Hauptartikel: Differentialgleichung

Eine Differentialgleichung ist eine Gleichung, die eine unbekannte Funktion und Ableitungen von dieser enthält. Treten in der Gleichung nur gewöhnliche Ableitungen auf, so heißt die Differentialgleichung gewöhnlich. Ein Beispiel ist die Differentialgleichung

y''(t) + \omega^2_0 y(t) = 0

des harmonischen Oszillators. Von einer partiellen Differentialgleichung spricht man, wenn in der Differentialgleichung partielle Ableitungen auftreten. Ein Beispiel dieser Klasse ist die Laplace-Gleichung

\Delta u(x) = 0.

Ziel der Theorie der Differentialgleichungen ist es, Lösungen, Lösungsmethoden und andere Eigenschaften solcher Gleichungen zu finden. Für gewöhnliche Differentialgleichungen wurde eine umfassende Theorie entwickelt, mit der es möglich ist, zu gegebenen Gleichungen Lösungen anzugeben, insofern diese existieren. Da partielle Differentialgleichungen in ihrer Struktur komplizierter sind, gibt es wenige Theorien, die auf eine große Klasse von partiellen Differentialgleichungen angewandt werden kann. Daher untersucht man im Bereich der partiellen Differentialgleichungen meist nur einzelne oder kleinere Klassen von Gleichungen. Um Lösungen und Eigenschaften solcher Gleichungen zu finden werden vor allem Methoden aus der Funktionalanalysis und auch aus der Distributionentheorie und der mikrolokalen Analysis eingesetzt. Allerdings gibt es viele partielle Differentialgleichungen, bei denen mit Hilfe dieser analytischen Methoden erst wenige Informationen über die Lösungsstruktur in Erfahrung gebracht werden konnten. Ein in der Physik wichtiges Beispiel einer solch komplexen partiellen Differentialgleichung ist das System der Navier-Stokes-Gleichungen. Für diese und für andere partielle Differentialgleichungen versucht man in der numerischen Mathematik näherungsweise Lösungen zu finden.

Funktionentheorie[Bearbeiten]

Hauptartikel: Funktionentheorie

Im Gegensatz zur reellen Analysis, die sich nur mit Funktionen reeller Variablen befasst, werden in der Funktionentheorie (auch komplexe Analysis genannt) Funktionen komplexer Variablen untersucht. Die Funktionentheorie hat sich von der reellen Analysis mit eigenständigen Methoden und andersartigen Fragestellungen abgesetzt. Jedoch werden einige Phänomene der reellen Analysis erst mit Hilfe der Funktionentheorie richtig verständlich. Das Übertragen von Fragestellungen der reellen Analysis in die Funktionentheorie kann daher zu Vereinfachungen führen.[1]

Literatur[Bearbeiten]

Weblinks[Bearbeiten]

 Commons: Analysis – Sammlung von Bildern, Videos und Audiodateien
 Wikiversity: Kurs:Analysis (Osnabrück 2013-2015)/Teil I – Kursmaterialien, Forschungsprojekte und wissenschaftlicher Austausch
 Wikibooks: Analysis – Lern- und Lehrmaterialien
 Wiktionary: Analysis – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise[Bearbeiten]

  1. a b c  D. Hoffmann: Analysis. In: Guido Walz (Hrsg.): Lexikon der Mathematik. 1. Auflage. Spektrum Akademischer Verlag, Mannheim/Heidelberg 2000, ISBN 3-8274-0439-8.