Regularisierung

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Unter Regularisierung versteht man verschiedene Techniken zur Behandlung von Singularitäten bzw. schlecht konditionierten Problemen:

  • Bei der Tichonow-Regularisierung wird eine positiv semi-definite Matrix \mathbf{A} für beliebig kleinen Regularisierungsfaktor \eta > 0 durch die positiv definite (und damit invertierbare) Matrix \tilde{\mathbf{A}} = \mathbf{A} + \eta \mathbf{I} approximiert. In der Statistik heißt diese Methode auch Ridge-Regression.
  • Mittels Ränderung werden schlecht konditionierte Matrizen regularisiert, indem man zusätzliche Zeilen und Spalten hinzufügt.
  • In der Theorie der degenerierten partiellen Differentialgleichungen bezeichnet Regularisierung ein Verfahren, bei dem man eine degenerierte Differentialgleichung durch eine nicht-degenerierte (d. h. regularisierte) Differentialgleichung approximiert.
  • In einem inversen Problem wird durch die Regularisierung das unterbestimmte System derart korrigiert, dass die Inverse bestimmt werden kann.
  • In der Physik ist Regularisierung eine formale Methode im Rahmen der Renormierung einer Quantenfeldtheorie zur Behandlung von auftretenden Unendlichkeiten.
Diese Seite ist eine Begriffsklärung zur Unterscheidung mehrerer mit demselben Wort bezeichneter Begriffe.