Methode der kleinsten Quadrate

Die Methode der kleinsten Quadrate (bezeichnender auch: der kleinsten Fehlerquadrate; englisch: Least Squares Method) ist das mathematische Standardverfahren zur Ausgleichungsrechnung. Es ist eine Wolke aus Datenpunkten gegeben, die physikalische Messwerte, wirtschaftliche Größen usw. repräsentieren können. In diese Punktwolke soll eine möglichst genau passende, parameterabhängige Modellkurve gelegt werden. Dazu bestimmt man die Parameter dieser Kurve numerisch, indem die Summe der quadratischen Abweichungen der Kurve von den beobachteten Punkten minimiert wird.
LogistischeFunktion.png
Anpassung von beobachteten y-Werten an eine logistische Funktion
In der Grafik sind die (t;y)(t; y)-Paare als Datenpunkte zu erkennen. Es wurde hier eine logistische Funktion in die Punktwolke gelegt. Die Parameter dieser Funktion werden so bestimmt, dass die Quadratsumme der senkrechten Abweichungen ee der Beobachtungen yy von der Kurve minimiert wird.
In der Stochastik wird die Methode der kleinsten Quadrate meistens als Schätzmethode in der Regressionsanalyse benutzt. Diese Begriffe werden, ebenso wie Ausgleichsrechnung, häufig von den Anwendern synonym gebraucht. In der mathematischen Statistik nennt man das Verfahren auch Kleinste-Quadrate-Schätzung, während in der Physik der Begriff Fitting verwendet wird. Die Fülle an Begriffen demonstriert die Bedeutung und Verbreitung der Methode.
Angewandt als Systemidentifikation ist die Methode der kleinsten Quadrate in Verbindung mit Modellversuchen für Ingenieure ein Ausweg aus der paradoxen Situation, Modellparameter für unbekannte Gesetzmäßigkeiten zu bestimmen.

Das Verfahren

Häufig ist für ein gegebenes Problem keine formelhafte Beschreibung zur Hand: Man interessiert sich für eine abhängige Variable yy, deren Zustandekommen von einer vorgegebenen Variablen tt oder auch von mehreren Variablen t1t_1 bis tqt_q abhängen kann. So hängt die Dehnung einer Feder nur von der aufgebrachten Kraft ab, der Gewinn eines Unternehmens jedoch von mehreren Faktoren wie Umsatz, Return on Investment oder Eigenkapital. Um Informationen über die Art des Zusammenhangs zu erhalten, wird man eine Messreihe yy durchführen: Es werden zu verschiedenen Werten der unabhängigen Variablen tjt_j entsprechende yy-Werte erhoben. Nun wird versucht, die yy-Werte mit einer Modellfunktion
ym=f(t1,,tq;x1,,xp)y_m = f(t_1,\dots, t_q;x_1,\dots,x_p),
die von qq Variablen sowie pp weiteren Parametern abhängen soll, gut zu approximieren.
Für die Wahl dieser Modellfunktion geht man im Allgemeinen von einem vermuteten Funktionstyp aus (beispielsweise einer Parabel oder einer Exponentialfunktion), was im Fall einer unabhängigen Variablen tt meistens unproblematisch ist. Die Parameter xix_i dienen zur Anpassung des gewählten Funktionstyps an den beobachteten Wert yy. So müsste bei der gemessenen Dehnung einer Feder die gegebene Variable Kraft durch den Parameter Federkonstante relativiert werden. Ziel ist es nun, die Parameter so zu wählen, dass die Modellfunktion die Daten bestmöglich approximiert. Zu betonen ist hierbei, dass es im Allgemeinen wesentlich mehr Datenpunkte gibt als Parameter.
Zunächst ist es nicht klar, wie man die Güte verschiedener Approximationen beurteilen soll. Gauß und Legendre hatten die Idee, Annahmen über die Messfehler zu machen. Diese sollten im Durchschnitt Null sein. Jeder Messfehler sollte die gleiche Varianz haben und von jedem anderen Messfehler stochastisch unabhängig sein. Man verlangt damit, dass in den Messfehlern keinerlei systematische Information mehr steckt, sie sollen also rein zufällig um Null schwanken. Außerdem sollten die Messfehler normalverteilt sein, was zum einen wahrscheinlichkeitstheoretische Vorteile hat und zum anderen garantiert, dass Ausreißer in yy so gut wie ausgeschlossen sind.
Das Kriterium zur Bestimmung der Approximation sollte dieses also berücksichtigen und so gewählt werden, dass große Abweichungen der Modellfunktion von den Daten viel stärker bestraft werden als kleine. Mit Hilfe der Maximum-Likelihood-Methode kann letztendlich folgende Vorschrift begründet werden: Es sollen diejenigen Parameter ausgewählt werden, bei denen die Summe der Quadrate der Abweichungen zwischen entsprechender Modellkurve und Daten (die Quadratsumme der Residuen oder auch Fehlerquadratsumme) minimal wird im Vergleich zu anderen Wahlen der Parameter, in Formelschreibweise
minxi=1n(ymyi)2 \min_{\vec{x}} { \sum\limits_{i=1}^{n}(y_m - y_i)^2} \,
Äquivalent geht es darum, die euklidische Norm des Differenzvektors zu minimieren:
minxym(x)y2  \min_{ \vec{x} } \| \vec{y}_{m} ( \vec{x} ) - \vec{y} \|_2 \ \,
Wie genau dieses Minimierungsproblem gelöst wird, hängt von der Art der Modellfunktion ab. Häufig kann man mit Hilfe eines Streudiagramms zwischen tjt_j und yy schon Rückschlüsse auf den Funktionstyp ziehen.

Lineare Modellfunktion

Der zweidimensionale Fall

Ein Spezialfall der Modellfunktion ist die lineare Form, bei der die Parameter xx linear eingehen. Der einfachste lineare Ansatz ist ym=x0+x1ty_m = x_0 + x_1 t. Man erhält in Matrixschreibweise
minx0,x1(1t11tn)(x0x1)(y1yn)2=minxAxb2 \min_{x_0,x_1}\left\|\begin{pmatrix}1 & t_1 \\ \vdots & \vdots \\ 1 & t_n \end{pmatrix} \begin{pmatrix} x_0\\ x_1\end{pmatrix} - \begin{pmatrix} y_1 \\ \vdots \\ y_{n}\end{pmatrix}\right\|_{2} = \min_x\|Ax-b\|_2\,
Für die resultierende Ausgleichsgerade dieses einfachen (aber durchaus relevanten) Beispiels lassen sich die Lösungen für die Parameter direkt angeben als
x1=i=1ntiyintˉyˉi=1nti2n(tˉ)2x_1 = \dfrac{\sum\limits\limits_{i=1}^n t_iy_i - n \cdot \bar t \bar y}{\sum\limits\limits_{i=1}^n t_i^2- n \cdot (\bar t)^2} und x0=yˉx1tˉx_0 = \bar y - x_1 \bar t
mit tˉ=1ni=1nti\bar t = \dfrac{1}{n} \sum\limits\limits_{i=1}^n t_i als arithmetischem Mittel der tt-Werte, yˉ\bar y entsprechend.
Die Lösung für x1x_1 kann mit Hilfe des Verschiebungssatzes auch als
x1=i=1n(titˉ)(yiyˉ)i=1n(titˉ)2x_1 = \dfrac{\sum\limits\limits_{i=1}^n (t_i - \bar t)(y_i - \bar y)}{\sum\limits\limits_{i=1}^n (t_i - \bar t)^2}
angegeben werden.

Beispiel

Folgendes Beispiel soll das Approximieren der linearen Funktion y=x0+x1ty = x_0 + x_1 t zeigen. Es wurden zufällig 10 Kriegsschiffe ausgewählt und bezüglich mehrerer Merkmale darunter Länge (m) und Breite (m) analysiert. Es soll nun untersucht werden, ob die Breite eines Kriegsschiffs möglicherweise durch die Länge erklärt werden kann. Das Streudiagramm zeigt, dass zwischen Länge und Breite eines Schiffs offensichtlich ein ausgeprägter linearer Zusammenhang besteht.
Es soll nun nach der Methode der kleinsten Quadrate eine Ausgleichsgerade errechnet werden. In der folgenden Tabelle sind die Daten zusammen mit den Zwischenergebnissen aufgeführt.
Nummer Länge (m) Breite (m) tit_{i} - t yiy_{i} - y      
i tit_{i} yiy_{i} tit_{i}* yiy_{i}* tit_{i}*yiy_{i}* tit_{i}*tit_{i}* yiy_{i}*yiy_{i}*
1 208 21,6 40,2 3,19 128,238 1616,04 10,1761
2 152 15,5 -15,8 -2,91 45,978 249,64 8,4681
3 113 10,4 -54,8 -8,01 438,948 3003,04 64,1601
4 227 31,0 59,2 12,59 745,328 3504,64 158,5081
5 137 13,0 -30,8 -5,41 166,628 948,64 29,2681
6 238 32,4 70,2 13,99 982,098 4928,04 195,7201
7 178 19,0 10,2 0,59 6,018 104,04 0,3481
8 104 10,4 -63,8 -8,01 511,038 4070,44 64,1601
9 191 19,0 23,2 0,59 13,688 538,24 0,3481
10 130 11,8 -37,8 -6,61 249,858 1428,84 43,6921
Σ\Sigma 1678 184,1 0,0 0,00 3287,820 20391,60 574,8490
Streudiagramm_Kriegsschiffe.png
Streudiagramm von Länge und Breite 10 zufällig ausgewählter Kriegsschiffe
Man erhält nun analog zum oben angegebenen Fall zunächst
tˉ=i=1ntin=167810=167,8\bar t = \dfrac {\sum\limits\limits_{i=1}^n t_i}{n} = \dfrac {1678}{10} = 167{,}8 und entsprechend yˉ=18,41\bar y = 18{,}41.
Damit bestimmt man x1x_{1} als
x1=i=1n(titˉ)(yiyˉ)i=1n(titˉ)2x_1 = \dfrac{\sum\limits\limits_{i=1}^n (t_i- \bar {t})(y_i - \bar y)}{\sum\limits\limits_{i=1}^n (t_i- \bar t)^2} =3287,82020391,60=0,1612   = \dfrac{3287{,}820} {20391{,}60} = 0{,}1612 \;,
so dass man sagen könnte, mit jedem Meter Länge wächst ein Kriegsschiff im Durchschnitt etwa 16 Zentimeter in die Breite. Das Absolutglied x0x_{0} erhalten wir aus
x0=yˉx1tˉ=18,410,1612167,8=8,6451  ,x_0 = \bar y - x_1 \bar t = 18{,}41 - 0{,}1612 \cdot 167{,}8 = -8{,}6451 \;,
wobei eine inhaltliche Interpretation aus stochastischen Gründen unterbleiben sollte. Die Anpassung der Punkte ist recht gut, es werden etwa 92 Prozent der Information in Breite mit Hilfe des Merkmals Länge erklärt.

Der allgemeine lineare Fall

Besitzt die Modellfunktion mehrere unabhängige Modellvariablen t1,,tqt_1, \ldots, t_q, erhält man eine lineare Funktion der Form
ym(t1,,tq;x0,x1,,xq)=x0+x1t1++xqtqy_m(t_1,\ldots,t_q;x_0, x_1, \dots, x_q )= x_0 + x_1 t_1 + \cdots + x_q t_q
x0+x1t11++xjt1j++xqt1q=y1x0+x1t21++xjt2j++xqt2q=y2x0+x1ti1++xjtij++xqtiq=yix0+x1tn1++xjtnj++xqtnq=yn \begin{matrix} x_0 + x_1 t_{11} + \cdots + x_j t_{1j}+ \cdots +x_q t_{1q} = y_1\\ x_0 + x_1 t_{21} + \cdots + x_j t_{2j}+ \cdots +x_q t_{2q} = y_2\\ \vdots \\ x_0 + x_1 t_{i1} + \cdots + x_j t_{ij}+ \cdots +x_q t_{iq}= y_i\\ \vdots\\ x_0 + x_1 t_{n1} + \cdots + x_j t_{nj}+ \cdots +x_q t_{nq}= y_n \end{matrix}
führt. Indem man die tijt_{ij} zur Datenmatrix AA, die Parameter xjx_j zum Parametervektor xx und die Beobachtungen yiy_i zum Vektor bb zusammenfasst, kann man das lineare Gleichungssystem in Matrixform darstellen.
(1t11t1jt1q1t21t2jt2q1ti1tijtiq1tn1tnjtnq)(x0x1x2xjxq)=(y0y1y2yiyn) \begin{pmatrix} 1 & t_{11} & \cdots & t_{1j} \cdots & t_{1q}\\ 1 & t_{21} & \cdots & t_{2j} \cdots & t_{2q}\\ \vdots \\ 1 & t_{i1} & \cdots & t_{ij} \cdots & t_{iq}\\ \vdots\\ 1 & t_{n1} & \cdots & t_{nj} \cdots & t_{nq} \end{pmatrix} \cdot \begin{pmatrix} x_0 \\ x_1\\ x_2 \\ \vdots \\ x_j\\ \vdots\\ x_q \end{pmatrix} = \begin{pmatrix} y_0 \\ y_1\\ y_2 \\ \vdots \\ y_i\\ \vdots\\ y_n \end{pmatrix} bzw. Ax=b Ax = b~.
Der kleinste-Quadrate-Ansatz führt dann wieder wie oben auf ein lineares Ausgleichsproblem der Form
minxAxb2\min_x\|Ax-b\|_2.

Lösung des Minimierungsproblems

Dieses Minimierungsproblem hat immer eine Lösung. Hat die Matrix AA vollen Rang, so ist sie sogar eindeutig. Die partiellen Ableitungen bezüglich der xjx_j und Nullsetzen derselben zum Bestimmen des Minimums ergeben ein lineares System von Normalgleichungen (auch Normalengleichungen)
ATAx=ATb  ,A^TAx=A^Tb \;,
das bei Regularität der (q+1)×(q+1)(q+1) \times (q+1)-Matrix auf der linken Seite eindeutig lösbar ist. Ferner hat die Systemmatrix ATAA^TA die Eigenschaft, positiv definit zu sein, ihre Eigenwerte sind also alle positiv. Zusammen mit der Symmetrie von ATAA^TA kann dies beim Einsatz von numerischen Verfahren zur Lösung ausgenutzt werden: beispielsweise mit der Cholesky-Zerlegung oder dem CG-Verfahren. Da beide Methoden von der Kondition der Matrix stark beeinflusst werden, ist dies manchmal keine empfehlenswerte Herangehensweise: Ist schon AA schlecht konditioniert, so ist ATAA^TA quadratisch schlecht konditioniert. Eine stabilere Alternative bietet die QR-Zerlegung mit Householdertransformationen, ausgehend vom ursprünglichen Minimierungsproblem und nicht den Normalgleichungen.
Ferner lässt sich das Minimierungsproblem mit einer Singulärwertzerlegung gut analysieren. Diese motivierte auch den Ausdruck der Pseudoinversen, einer Verallgemeinerung der normalen Inversen einer Matrix.
In der statistischen Regressionsanalyse spricht man bei mehreren gegebenen Variablen tjt_j von multipler Regression. Der Ansatz ist auch als OLS (ordinary least squares) bekannt, im Gegensatz zu GLS (generalised least squares), dem verallgemeinerten Regressionsmodell bei Residuen, die von der Verteilungsannahme wie Unkorreliertheit und Homoskedastie abweichen. Dagegen liegen bei multivariater Regression für jede Beobachtung i(i=1,,n)ri (i=1, \dots ,n) r viele yy-Werte vor, so dass statt eines Vektors eine n×rn \times r-Matrix YY vorliegt. Die linearen Regressionsmodelle sind in der Statistik wahrscheinlichkeitstheoretisch intensiv erforscht worden. Besonders in der Ökonometrie werden beispielsweise komplexe rekursiv definierte lineare Strukturgleichungen analysiert, um volkswirtschaftliche Systeme zu modellieren.

Anforderungen an die Daten

Strenggenommen ist die Normalverteilungsannahme für die abhängige Variable yy nicht zwingend notwendig. Es sollen lediglich keine Ausreißer vorliegen. Diese verursachen numerische Probleme, ebenso wie Multikollinearität.

Multikollinearität

Multikollinearität entsteht, wenn die Messreihen zweier gegebener Variablen tit_{i} und tjt_{j} sehr hoch korreliert sind, also fast linear abhängig sind. In diesem Fall wird die Determinante von ATAA^TA sehr klein und die Lösungswerte werden unplausibel groß. Die Norm der Inversen wird umgekehrt ebenfalls sehr groß, die Kondition von ATAA^TA ist stark beeinträchtigt. Die Normalgleichungen sind dann numerisch schwer zu lösen. Häufig tritt Multikollinearität auf, wenn das Regressionsmodell durch zu viele Regressoren überbestimmt ist. Neben numerischen Alternativen können auch mit Hilfe statistischer Tests die Variablen auf ihre Erklärungswerte für das Modell hin überprüft werden und gegebenenfalls entfernt werden.
Man kann bei sehr vielen in Frage kommenden Regressoren auch schrittweise eine Variablen-Selektion durchführen:
  • Bei der vorwärts gerichteten Regression (Forward Regression) wird zuerst der Regressor in das Modell aufgenommen, der den größten Beitrag zur Erklärung von y liefert, also etwa die Quadratsumme der Residuen minimiert. Dann wird unter den verbliebenen potentiellen Regressoren der Regressor ausgewählt, dessen Beitrag zum bestehenden Modell maximal ist, usw. Das Verfahren wird beendet, wenn der zusätzliche maximale Beitrag eines Regressors statistisch insignifikant wird. Wird statt eines Tests eine kritische Genauigkeit verwendet, könnte man auch sagen, bis sich die Genauigkeit der Anpassung nicht mehr steigern lässt. Wenn das statistische Material nicht umfangreich genug ist kann es vorkommen, dass die Abhängigkeit der Genauigkeit von der Anzahl der Ansatzfunktionen nicht glatt, sondern rauh gegen einen Grenzwert konvergiert - daraus ergeben sich weitere Verbesserungsmöglichkeiten des Verfahrens.
  • Bei der rückwärts gerichteten Regression (Backward Regression) werden zunächst alle Regressoren in das Regressionsmodell aufgenommen. Es wird dann der Regressor aus dem Modell entfernt, dessen Weglassen die Quadratsumme der Residuen am wenigsten reduziert. Dann wird der nächste Regressor entfernt usw. Das Verfahren stoppt, wenn der Beitrag des nächsten potentiellen Eliminationskandidaten zur Erklärung von y signifikant hoch wird, bzw. bis die Genauigkeit einen festgelegten Schwellenwert unterschreitet.
Im allgemeinen ist die Vorwärts-Elimination der Rückwärts-Elimination vorzuziehen, weil die Kreuzproduktmatrix ATAA^TA bei sehr vielen Regressoren häufig schon pathologisch ist und für die Eliminationsrechnung keine sinnvollen Ergebnisse liefert.
Auch mit Ridge-Regression kann Multikollinearität abgeholfen werden. Typischerweise sind bei multikollinearen Kreuzproduktmatrizen ATAA^TA die Hauptdiagonalelemente zu klein. Man addiert hier iterativ kleine Beträge auf die Hauptdiagonale, bis sich die Matrix stabilisiert hat. Mit Hilfe eines Konditionierungskriteriums, etwa der Eigenwerte, kann dieser Prozess kontrolliert werden. Ob dieses Verfahren sinnvolle Ergebnisse liefert, muss wohl fallweise untersucht werden.

Ausreißer

Als Ausreißer sind Datenwerte definiert, die "untypisch weit von der Masse der Daten entfernt sind". Diese Werte beeinflussen die Berechnung der Parameter stark. Es gibt hier alternative Ausreißer-resistente Berechnungsverfahren wie gewichtete Regression oder das Drei-Gruppen-Verfahren. Bei der gewichteten Regression werden etwa die Ausreißer der abhängigen Variablen y mit 0 und die unproblematischen Werte mit 1 gewichtet, was die Unterdrückung des Ausreißers bedingt. Dieser Algorithmus nach Mosteller und Tukey (1977) wird als "biweighting" bezeichnet. Denkbar wäre auch, die Gewichtung je nach Stärke des Ausreißers abzustufen. Im übrigen können auch Ausreißer in den Regressoren die Ergebnisse der Ausgleichsrechnung stark beeinträchtigen. Man spricht hier von Werten mit großer Hebelkraft (High Leverage Value).
KorrRes.png
Heterosk.png
Ausreisser.png
Korrelierte Residuen:
In den Residuen ist noch eine Schwingungskomponente, die man ev. mit dem Ansatz y=x0+x1t+x2sin(t)y = x_{0} + x_{1} t + x_{2} \sin(t) einbinden könnte.
Verschiedene Varianz der Residuen:
Die linken Residuen schwanken schwächer als die rechten. Vermutlich sind zwei verschiedene Populationen gemischt worden.
Ausreißer von y:
Der Wert zieht die Gerade nach oben

Nichtlineare Modellfunktionen

Mit dem Aufkommen leistungsfähiger Rechner gewinnt insbesondere die nichtlineare Regression an Bedeutung. Sie ermöglicht im Prinzip die Anpassung von Daten an jede Gleichung der Form y=f(x)y = f(x). Da diese Gleichungen Kurven definieren, werden die Begriffe nichtlineare Regression und "curve fitting" zumeist synonym gebraucht.
Manche nichtlineare Probleme lassen sich durch geeignete Substitution in lineare überführen und sich dann wie oben lösen. Ein multiplikatives Modell von der Form
y=x0tx1e y = x_0 \cdot t^{x_1} \cdot e
bei dem auch die Residuen ee mit tt variieren, lässt sich beispielsweise durch Logarithmieren in ein additives System überführen. Dessen Parameter können dann berechnet werden. Dieser Ansatz findet unter Anderem in der Wachstumstheorie Anwendung. Häufig werden für die Approximation einer Funktion yy auch Ausgleichspolynome der Form
yx0+x1t+x2t2++xqtq y \approx x_0 + x_1 t + x_2 t^2+ \dots + x_q t^q
eingesetzt. Werden für die Potenzen die Zahlenwerte verwendet, ergibt sich wieder ein lineares Gleichungssystem, das wie oben gelöst werden kann.
Im Allgemeinen ergibt sich bei nichtlinearen Modellfunktionen durch die partielle Differentiation ein System von Normalgleichungen, das nicht mehr analytisch gelöst werden kann. Eine numerische Lösung kann hier iterativ mit dem Gauß-Newton-Verfahren erfolgen. Jenes hat das Problem, dass die Konvergenz des Verfahrens nicht gesichert ist.
Aktuelle Programme arbeiten häufig mit einer Variante, dem Levenberg-Marquardt-Algorithmus. Bei diesem Verfahren ist zwar die Konvergenz ebenfalls nicht gesichert, jedoch wird durch eine Regularisierung die Monotonie der Näherungsfolge garantiert. Zudem ist das Verfahren bei größerer Abweichung der Schätzwerte toleranter als die Ursprungsmethode. Beide Verfahren sind mit dem Newton-Verfahren verwandt und konvergieren meist quadratisch, in jedem Schritt verdoppelt sich also die Zahl der korrekten Nachkommastellen.
Wenn die Differenziation auf Grund der Komplexität der Zielfunktion zu aufwändig ist, stehen eine Reihe anderer Verfahren als Ausweichlösung zu Verfügung, die keine Ableitungen benötigen, siehe bei Methoden der lokalen nichtlinearen Optimierung.

Beispiel einer polynomialen Ausgleichskurve

VierVariablen.png
Tabelle T1: Ergebnisse der Kleinst-Quadrate-Schätzung mit 4 gegebenen Datenvariablen tjt^{\, j}
Als Ergebnisse der Mikrozensus-Befragung im Mai 2003 durch das statistische Bundesamt sind die durchschnittlichen Gewichte von Männern nach Altersklassen gegeben (Quelle:© Statistisches Bundesamt, Wiesbaden 2004). Für die Analyse wurden die Altersklassen durch die Klassenmitten ersetzt (Die Zahlen sind im Artikel Streudiagramm aufgeführt). Es soll die Abhängigkeit der Variablen Gewicht (y) von der Variablen Alter (t) analysiert werden. Das Streudiagramm lässt auf eine annähernd parabolische Beziehung zwischen t und y schließen, welche sich häufig gut durch ein Polynom annähern lässt. Es wird ein polynomialer Ansatz der Form
yx0+x1t+x2t2+x3t3+x4t4 y \approx x_0 + x_1 t + x_2 t^2 + x_3 t^3 + x_4 t^4
DreiVariablen.png
Tabelle T2: Ergebnisse der Kleinst-Quadrate-Schätzung mit 3 gegebenen Datenvariablen tjt^{\, j}
versucht. Eine Anpassungsrechnung mit Hilfe des Statistik-Programms Minitab ergab die (ins Deutsche übersetzte) Tabelle T1. Es sind alle Parameter xjx_{j} statistisch signifikant, d.h. die Daten aller tjt^{ j} können einen deutlichen Beitrag zur Erklärung von y leisten. Das Bestimmtheitsmaß (R^2) beträgt 99,8 ,manko¨tealsosan,dass99,8\displaystyle{,{m}{a}{n}{k}ö\cap{t}{e}{a}{l}{s}{o}{s}{a}\ge{n},{d}{a}{s}{s}{99},{8}} der Information von y durch die Daten erklärt werden. Die Daten von tjt^{ j} sind allerdings hochkorreliert. Es wurde daher t3t^{ 3} und damit der Modellparameter x3x_{ 3} aus dem Modell entfernt. Die Ergebnisse einer Regression ohne t3t^{3} sind in der (ins Deutsch übersetzten) Tabelle T2 aufgeführt. Das Bestimmtheitsmaß ist lediglich auf 98,6 Uncaught ParseError: KaTeX parse error: Expected '}', got 'EOF' at end of input: …}{l}{s}{o}\hat{ Line: 16377 Column: 4 Stack: at new ParseError (V8.NET:261:14) at Parser.expect (V8.NET:15284:13) at Parser.parseGroup (V8.NET:16049:12) at Parser.parseGroupOfType (V8.NET:15765:21) at Parser.parseArguments (V8.NET:15704:22) at Parser.parseFunction (V8.NET:15636:37) at Parser.parseGroup (V8.NET:16031:21) at Parser.parseAtom (V8.NET:15498:21) at Parser.parseExpression (V8.NET:15359:23) at Parser.parseGroup (V8.NET:16010:29) }{t}^Unknown meta: {3}Uncaught ParseError: KaTeX parse error: Expected 'EOF', got '}' at position 136: …v}{o}{n}{1},{3}}̲ Line: 16377 Column: 4 Stack: at new ParseError (V8.NET:261:14) at Parser.expect (V8.NET:15284:13) at Parser.parse (V8.NET:15329:10) at parseTree (V8.NET:16288:21) at renderToDomTree (V8.NET:16395:16) at Object.renderToString (V8.NET:16356:16) at KatexRender (V8.NET:146:15) at V8.NET:1:1 . Das Streudiagramm mit den beobachteten und geschätzten y-Werten zeigt, dass die Anpassung gelungen ist.
Scatterplot1.png
AlterGewicht.png
Streudiagramm: Durchschnittliches Gewicht von Männern nach Alter (Quelle der Daten: Statistisches Bundesamt, Wiesbaden 2004) Streudiagramm von y und geschätztem y

Beispiel der Fourieranalyse

Auch die Fourieranalyse ist eine Form der Linearisierung einer nichtlinearen Modellfunktion. Die Ansatzfunktionen sind der Kosinus und Sinus der Grundfrequenz und ihrer Vielfachen. Man setzt an
y(t)A0+A1cos(ωt)+B1sin(ωt) y(t) \approx A_0 + A_1 \cos(\omega\,t) + B_1 \sin(\omega\,t) +A2cos(2ωt)+B2sin(2ωt)+ + A_2\cos(2\omega\,t) + B_2 \sin(2\omega\,t) + \ldots
Der mittlere quadratische Fehler wird nach jedem einzelnen Fourierkoeffizienten differenziert, und dieser Ausdruck ist jeweils null:
Aj(A0+A1cos(ωt)+B1sin(ωt) \dfrac{\partial}{\partial A_j} ( A_0 + A_1 \cos(\omega\,t) + B_1 \sin(\omega\,t) +A2cos(2ωt)+B2sin(2ωt)+y(t))2=0 + A_2\cos(2\omega\,t) + B_2 \sin(2\omega\,t) + \ldots \quad - \quad y(t) )^2 = 0
Bj(A0+A1cos(ωt)+B1sin(ωt) \dfrac{\partial}{\partial B_j} ( A_0 + A_1 \cos(\omega\,t) + B_1 \sin(\omega\,t) +A2cos(2ωt)+B2sin(2ωt)+y(t))2=0 + A_2\cos(2\omega\,t) + B_2 \sin(2\omega\,t) + \ldots \quad - \quad y(t) )^2 = 0
Daraus ergeben sich die bekannten Definitionsgleichungen der Fourierkoeffizienten.

Beispiel aus der Enzymkinetik einer nicht linearisierbaren Modellfunktion

Ein Beispiel für Regressionsmodelle, die in keiner Weise linearisierbar sind, ist die Enzymkinetik. Hier ist allerdings zu fordern, dass nur y (Reaktionsgeschwindigkeit) und nicht x (Substratkonzentration) einem Fehler unterliegt. Die vertraute Lineweaver-Burk-Beziehung ist zwar eine algebraisch korrekte Umformung der Michaelis-Menten-Gleichung v = Vmax x [S] / (Km + [S]), ihre Anwendung liefert aber nur korrekte Ergebnisse, wenn die Messwerte fehlerfrei sind. Dies ergibt sich aus der Tatsache, dass sich die Realität nur mit einer erweiterten Michaelis-Menten-Beziehung
νi=Vmax[Si]Km+[Si](1+ei) νi\nu_i = \dfrac{V_{max} \left[S_i\right]}{K_m+\left[S_i\right]}(1+e_i)\ {\nu}_i
mit eie_i als Fehlerparameter, beschreiben lässt. Diese Gleichung lässt sich nicht mehr linearisieren, also muss hier die Lösung iterativ ermittelt werden.
Bei nichtlinearen Gesetzmäßigkeiten ergibt sich eine Komplikation dadurch, dass die zu optimierenden Parameter nicht direkt ermittelt werden können: alle Kalkulationen gehen zwangsläufig von Schätzwerten aus, so dass jede nichtlineare Regressionsanalyse ein iteratives Verfahren darstellt. Ob diese Schätzwerte vernünftig waren, zeigt sich im nachhinein dadurch, dass verschiedene Anfangsschätzungen zum gleichen Endergebnis führen.

Siehe auch

  • Konfidenzintervall
  • Korrelationskoeffizient
  • lineare Regression

Literatur

  • Åke Björk: Numerical Methods for Least Squares Problems. SIAM, Philadelphia 1996. ISBN 0898713609
  • Norman R. Draper, Harry Smith: Applied Regression Analysis. Wiley-Interscience, New York 1998. ISBN 0471170828
  • Gerhard Opfer: Numerische Mathematik für Anfänger. Eine Einführung für Mathematiker, Ingenieure und Informatiker. Vieweg, Braunschweig 2002 (4. Aufl.). ISBN 3528372656
  • R. J. Hanson, C. L. Lawson: Solving least squares problems. SIAM, Philadelphia 1995. ISBN 0898713560
  • Volker Oppitz, Volker Nollau: Taschenbuch Wirtschaftlichkeitsrechnung. Carl Hanser, München 2003, ISBN 3446224637
  • Volker Oppitz: Gabler Lexikon Wirtschaftlichkeitsberechnung. Gabler, Wiesbaden 1995, ISBN 3409199519
  • Peter Schönfeld: Methoden der Ökonometrie. 2 Bd. Vahlen, Berlin-Frankfurt 1969-1971.
  • Frederick Mosteller, John W. Tukey: Data Analysis and Regression - a second course in statistics. Addison-Wesley, Reading MA 1977. ISBN 020104854X
  • E. Zeidler (Hrsg.): Taschenbuch der Mathematik. Begründet v. I.N. Bronstein, K.A. Semendjajew. Teubner, Stuttgart-Leipzig-Wiesbaden 2003. ISBN 3817120052
  • Josef Schira: Statistische Methoden der VWL und BWL. Pearson Studium, München 2003, ISBN 3827370418
 
 

Hochtechnologie ist im wesentlichen mathematische Technologie.

Enquete-Kommission der Amerikanischen Akademie der Wissenschaften

Copyright- und Lizenzinformationen: Diese Seite basiert dem Artikel Methode der kleinsten Quadrate aus der frеiеn Enzyklοpädιe Wιkιpеdιa und stеht unter der Dοppellizеnz GNU-Lιzenz für freie Dokumentation und Crеative Commons CC-BY-SA 3.0 Unportеd (Kurzfassung). In der Wιkιpеdιa ist eine Listе dеr Autorеn des Originalartikels verfügbar. Da der Artikel geändert wurde, reicht die Angabe dieser Liste für eine lizenzkonforme Weiternutzung nicht aus!
Anbieterkеnnzeichnung: Mathеpеdιa von Тhοmas Stеιnfеld  • Dοrfplatz 25  •  17237 Blankеnsее  • Tel.: 01734332309 (Vodafone/D2)  •  Email: cο@maτhepedιa.dе