Ungleichung von Mulholland

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Ungleichung von Mulholland (englisch Mulholland’s inequality) ist ein Resultat der Analysis, einem der Teilgebiete der Mathematik. Die Ungleichung ist verwandt mit der minkowskischen Ungleichung, welche sich im Wesentlichen aus der mulhollandschen Ungleichung als Korollar ergibt. Sie wurde von Hugh P. Mulholland im Jahre 1950 publiziert und gab Anlass zu einer Reihe weiterführender Untersuchungen.[1][2]

Formulierung[Bearbeiten | Quelltext bearbeiten]

Das Resultat lässt sich wie folgt angeben:[3][4]

Gegeben seien das reelle Intervall und eine reelle Funktion mit folgenden Eigenschaften:
(1)  .
(2) ist eine stetige Bijektion und dabei eine streng monoton steigende Funktion.
(3) Die Einschränkung auf das Innere des Intervalls ist eine Jensen-konvexe Funktion.
(4) Die durch die Zuordnung gegebene reelle Funktion ist ebenfalls Jensen-konvex.
Dann gilt für jede natürliche Zahl und je zwei -Tupel stets die Ungleichung
 .

Korollar[Bearbeiten | Quelltext bearbeiten]

Nimmt man oben (zu einer gegebenen reellen Zahl ) als Funktion die Potenzfunktion , so erhält man eine Version der minkowskischen Ungleichung:[3][5]

Für jede natürliche Zahl und je zwei -Tupel und nichtnegativer reeller Zahlen gilt stets
 .

Literatur[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Marek Kuczma: An Introduction to the Theory of Functional Equations and Inequalities. 2009, S. 218–222
  2. D. S. Mitrinović: Analytic Inequalities. 1970, S. 55 ff.
  3. a b Kuczma, op. cit., S. 221
  4. Mitrinović, op. cit., S. 56–57
  5. Dabei folgt man der Konvention .