Polynom Regression Herleitung

Autor:
hawe
Verfahren Einsetzen der Punkte in eine Ausgleichsgerade ergibt ein GLS geschrieben als Matrixgleichung A = Y ===> Minimiere die Abweichungsquadrate Residuen R (Residuenquadratsumme bezeichnet Abweichungsquadratsumme). Erweitern auf Polynome höheren Grades erweitert die Matrix um Spalten mit Potenzen von xi (Parabel xi2 , kubische Parabel xi2 xi3)... Min Q (Zeile 1-15) suche lokales Minimum der Residuenfunktion : minimiere (partielle Ableitungen): was ein LGS ergibt das als Matrixgleichung geschrieben führt auf Normalengleichung (Zeile 15-) aus Residuenfunktion Q Vom Gleichungssystem der Kurvenpunkte zur Normalengleichung   →֍Toolbar Image Wahl des Regressionspolynoms durch Anpassung des Koeffizientenvektors , Koeffizienten mit dem Schieberegler n (Grad des Polynoms). In der Liste Graph sind A_1 .. A_9 Punkte vorgelegt (aktuell A_1 .. A_6 verwendet) - maxA_n anpassen. Punkte anfassen und verschieben oder im Algebrafenster ändern...

App Beispiel

Eine kubische Regressionsparabel der Bauart Punkte P1...P5 in Parabelform eingesetzt LGS als Matrix-Gleichung (10) Vandermonde Matrix A (ai) = (yi) Normalengleichung (orthogonal minimiere Überbestimmte LGS): AT A (ai) = AT (yi) (22) Löse (ai) = (AT A)-1 AT (yi) (26)
Die Normalengleichung für eine Ausgleichsgerade schreib ich mit zusammengefassten Summen auf , , , ===> ===> ===> ===> ===> ,
Sx =Sum(X) Sy =Sum(Y) Sxx=Sum(X X) Sxy=Sum(X Y) {{n, S_x}, {S_x, S_{xx}}}^-1 {S_y, S_{xy}} 
Eine Formel für die Geradenparameter mit leicht berechenbaren Summen aus den Koordinaten der Regressionspunkte. Bestimmtheitsmaß