Konvexe Optimierung
Die
Konvexe Optimierung ist ein Teilgebiet der mathematischen
Optimierung. Es ist eine bestimmte Größe zu minimieren, die sogenannte Zielfunktion, welche von einem Parameter, welcher mit
x bezeichnet wird, abhängt. Außerdem sind bestimmte Nebenbedingungen einzuhalten, d.h. die Werte
x, die man wählen darf, sind gewissen Einschränkungen unterworfen. Diese sind meist in Form von Gleichungen und
Ungleichungen gegeben. Sind für einen Wert
x alle Nebenbedingungen eingehalten, so sagt man, dass
x zulässig ist. Man spricht von einem konvexen Optimierungsproblem oder einem konvexen Programm, falls sowohl die Zielfunktion als auch die
Menge der zulässigen
Punkte konvex ist. Viele Probleme der Praxis sind konvexer Natur. Oft wird zum Beispiel auf Quadern optimiert, welche stets
konvex sind, und als Zielfunktion finden oft quadratische Formen Verwendung, die unter bestimmten Voraussetzungen ebenfalls
konvex sind. Ein anderer wichtiger Spezialfall ist die
Lineare Optimierung, bei der eine lineare Zielfunktion über einem konvexen Polyeder optimiert wird.
Eine wichtige Eigenschaft der konvexen
Optimierung im Unterschied zur nicht-konvexen
Optimierung ist, dass jedes lokale Optimum auch ein globales Optimum ist. Anschaulich bedeutet dies, dass eine Lösung, die mindestens so gut ist wie alle anderen Lösungen in einer
Umgebung, auch mindestens so gut ist wie
alle zulässigen Lösungen. Dies erlaubt es, einfach nach lokalen Optima zu suchen.
Einleitung
Es gibt viele mögliche Formulierungen eines konvexen Programms. An dieser Stelle soll eine möglichst allgemeine Form gewählt werden. Der Eingabeparameter
x sei aus dem
Rn, d.h. das Problem hängt von
n Einflussparametern ab. Die Zielfunktion
f:K→R sei
konvex. Weiterhin seien die
konvexen Funktionen gi:K→R mit
1≤i≤m und die affinen
Funktionen hj:K→R mit
1≤j≤l gegeben. Hierbei ist
K eine konvexe
Teilmenge des
Rn.
Konvexes Programm:
Minimiere
f(x) mit
x∈K unter den Nebenbedingungen
- gi(x)≤0 ,1≤i≤m
- hj(x)=0 ,1≤j≤l
Eine Restriktion mit
gi(x)=0 bezeichnet man als aktiv. Die
Funktionen gi stellen die sogenannten Ungleichungsnebenbedingungen und die
Funktionen hj stellen die sogenannten Gleichungsnebenbedingungen dar.
Beispiel
Konvexes Optimierungsproblem
Als Beispiel wird ein eindimensionales Problem ohne Gleichungsnebenbedingungen und mit nur einer Ungleichungsnebenbedingung betrachtet:
Minimiere
f(x)=(x−1)2 mit
x∈K=[0,∞) unter der Nebenbedingung:
- g(x)=x2−1≤0
- {x∈K:g(x)≤0}=[0,1].
Der Zeichnung entnimmt man, dass für
x=1 der Optimalwert
0 angenommen wird.
Optimalitätsbedingungen
Zunächst werden notwendige Optimalitätsbedingungen vorgestellt. Dies sind Kriterien, die auf jeden Fall im Optimum
x^ erfüllt sein müssen. Danach werden hinreichende Optimalitätsbedingungen formuliert. Diese zeigen, dass eine Lösung
x^ wirklich optimal ist.
Fritz-John-Bedingungen
Sei
x^ optimal für das obige konvexe Programm. Dann gibt es Multiplikatoren
λ, μ1,…,μm, ν1,…,νl, die nicht sämtlich den Wert
0 haben, mit den folgenden Eigenschaften:
- λ, μ1,…,μm≥0
- gi(x^)<0⇒μi=0 ,1≤i≤m (Complementary slackness condition)
- λf(x^)+i=1∑mμigi(x^)+j=1∑lνjhj(x^)≤λf(x)+i=1∑mμigi(x)+j=1∑lνjhj(x) für alle x∈K
Die Fritz-John-Bedingungen sind ein notwendiges Optimalitätskriterium. Für
λ>0 sind sie hinreichend. In diesem Fall darf man sogar
λ=1 setzen. Die complementary slackness condition wird im Deutschen auch Bedingung vom komplementären Schlupf genannt. Hierbei kann man beweisen, dass falls
gi(x^)<0 für alle
1≤i≤m gilt, dass dann alle Multiplikatoren
μi=0 für alle
1≤i≤m sein müssen. Diese Bedingung ist somit für den Aufbau und den Entwurf von
Algorithmen von hoher Bedeutung.
Karush-Kuhn-Tucker-Bedingungen
Die
Karush-Kuhn-Tucker-Bedingungen (auch bekannt als die KKT-Bedingungen) sind notwendig für die Optimalität einer Lösung in der nichtlinearen
Optimierung. Sie stellen eine Verallgemeinerung der Lagrangen Multiplikatoren dar.
Notwendige Bedingungen
Sei
f:K→R die Zielfunktion und die
konvexen Funktionen gi:K→R mit
1≤i≤m und die affinen
Funktionen hj:K→R mit
1≤j≤l sind Nebenbedingungs-Funktionen. Es sei
x^ ein zulässiger
Punkt, d.h. es gilt
x^∈K. Des Weiteren nimmt man an, dass die aktiven
Funktionen gi differenzierbar im
Punkt x^ sind, die
Funktionen hj sind
stetig differenzierbar im
Punkt x^∈K. Falls
x^ ein
lokales Minimum ist, dann existieren Konstanten
λ≥0,μi≥0 mit
1≤i≤m und
νj mit
1≤j≤l, so dass
- λ+i=1∑mμi+j=1∑l∣νj∣>0,
- λ∇f(x^)+i=1∑mμi∇gi(x^)+j=1∑lνj∇hj(x^)=0,
- μigi(x^)=0 für alle 1≤i≤m
Außerdem gilt
- f(x^)+i=1∑mμigi(x^)≤f(x)+i=1∑mμigi(x) für alle x∈K
und die Komplementaritätsbedingung ist erfüllt:
- gi(x^)<0⇒μi=0 ,1≤i≤m
Regularitäts-Bedingungen
Für die obige notwendige Bedingung darf das duale Skalar
λ gleich Null sein. In solchen Fällen spricht man von
degeneriert oder
abnormal. Dann spielt die notwendige Bedingung keine Rolle für die Eigenschaften der
Funktion, nur die
Geometrie der Nebenbedingungen ist relevant.
Es existieren mehrere Bedingungen, welche sicherstellen, dass die Lösung nicht-degeneriert ist, d.h.
λ=/0. Diese werden
Constraint Qualifications genannt.
Hinreichende Bedingungen
Sei
f:K→R die Zielfunktion und die
konvexen Funktionen gi:K→R mit
1≤i≤m und die affinen
Funktionen hj:K→R mit
1≤j≤l sind Nebenbedingungs-Funktionen. Es sei
x^ ein zulässiger
Punkt, d.h. es gilt
x^∈K. Des Weiteren nimmt man an, dass die aktiven
Gradienten ∇gi(x^) und die
Gradienten ∇hj(x^) linear unabhängig sind. Falls
x^ ein
lokales Minimum ist, dann existieren Konstanten
λ≥0,μi≥0 mit
1≤i≤m und
νj mit
1≤j≤l, so dass
- ∇f(x^)+i=1∑mμi∇gi(x^)+j=1∑lνj∇hj(x^)=0
- μigi(x^)=0 für alle 1≤i≤m
Constraint Qualifications
Ein Kriterium, welches sicherstellt, dass
λ>0 gilt, nennt man
Constraint Qualification. Mit anderen Worten, eine Bedingung, die sicherstellt, dass die Fritz-John-Bedingungen auch die Karush-Kuhn-Tucker-Bedingungen erfüllen, nennt man Constraint Qualification.
Beispiele für Constraint Qualifications sind:
- Slater: Es treten keine Gleichungsnebenbedingungen auf. Des weiteren gibt es einen Punkt x~∈K, so dass gi(x~)<0 für alle 1≤i≤m. An dieser Stelle sei erwähnt, dass die Constraint Qualification von Slater im Allgemeinen als die wichtigste angesehen wird.
- Lineare Unabhängigkeit - Linear independence constraint qualification (LICQ): Die Gradienten der aktiven Ungleichungsbedingungen und die Gradienten der Gleichungsbedingungen sind linear unabhängig im Punkt x^.
- Mangasarian-Fromowitz - Mangasarian-Fromowitz constraint qualification (MFCQ): Die Gradienten der aktiven Ungleichungsbedingungen und die Gradienten der Gleichungsbedingungen sind positiv-linear unabhängig im Punkt x^.
- Konstanter Rang - Constant rank constraint qualification (CRCQ): Für jede Untermenge der Gradienten, der Ungleichungsbedingungen, welche aktiv sind, und der Gradienten der Gleichungsbedingungen ist der Rang in der Nähe von x^ konstant.
- Konstante positive-lineare Abhängigkeit - Constant positive-linear dependence constraint qualification (CPLD): Für jede Untermenge der Gradienten, der Ungleichungsbedingungen, welche aktiv sind, und der Gradienten der Gleichungsbedingungen, und falls eine positive-lineare Abhängigkeit im Punkt x^ vorliegt, dann gibt es eine positiv-lineare Abhängigkeit in der Nähe von x^.
Man kann zeigen, dass die Folgerungen gelten
- LICQ⇒MFCQ⇒CPLD und LICQ⇒CRCQ⇒CPLD,
obwohl MFCQ nicht äquivalent zu CRCQ ist. In der Praxis werden schwächere Constraint Qualifications bevorzugt, da diese stärkere Optimalitäts-Bedingungen liefern.
Konkretes Vorgehen
Lagrange-Funktion
Zunächst wird die folgende abkürzende Schreibweise eingeführt:
- L(x,λ)=f(x)+i=1∑mμigi(x)+j=1∑lνjhj(x),
wobei
λ der Vektor aus allen Multiplikatoren ist.
Lagrangesche Multiplikatorenregel für das konvexe Problem
Vergleiche hierzu auch mit Lagrangesche Multiplikatorenregel. Konkretes Vorgehen:
- Überprüfe, ob alle auftretenden Funktionen stetig partiell differenzierbar sind. Falls nein, ist diese Regel nicht anwendbar.
- Gibt es einen zulässigen Punkt x^, für den gilt: ∇f(x^)=0? Falls ja, dann ist x^ optimal. Sonst fahre mit dem nächsten Schritt fort.
- Bestimme den Gradienten ∇xL(x,λ) der Lagrange-Funktion.
- Löse das System ∇xL(x,λ)(x−x^)≥0 (x∈K), wobei kein Multiplikator negativ sein darf. Falls eine Restriktion aktiv ist, muss der zugehörige Multiplikator sogar gleich 0 sein. Findet man eine Lösung x^, so ist diese optimal.
Literatur
- Avriel, Mordecai: Nonlinear Programming: Analysis and Methods. Dover Publishing, 2003, ISBN 0-486-43227-0.
- R. Andreani, J. M. Martínez, M. L. Schuverdt: On the relation between constant positive linear dependence condition and quasinormality constraint qualification. Journal of optimization theory and applications, vol. 125, no2, 2005, pp. 473-485.
- F. Jarre, J. Stoer: Optimierung. Springer, Berlin 2003, ISBN 3-540-43575-1.
Seit man begonnen hat, die einfachsten Behauptungen zu beweisen, erwiesen sich viele von ihnen als falsch.
Bertrand Russell
Anbieterkеnnzeichnung: Mathеpеdιa von Тhοmas Stеιnfеld
• Dοrfplatz 25 • 17237 Blankеnsее
• Tel.: 01734332309 (Vodafone/D2) •
Email: cο@maτhepedιa.dе