Regresja liniowa - pomoc
Spis tematów:
Okna dialogowe
Opis pól formularza
Wprowadzanie danych
Strona wynikowa
Składnia funkcji i wyrażeń
Metody regresji liniowej
Regresja lin. zwykła
Regresja lin. ważona (Y)
Regresja lin. ważona (X i Y)
Metoda dodatków wzorca
 
Regresja liniowa zwykła

Metodą najmniejszych kwadratów jest poszukiwana zależność postaci Y = f(X), która najlepiej jest dopasowana do wprowadzonych punktów eksperymentalnych ((x1, y1), (x2, y2), ..., (xm, ym)). Najprostszą postacią funkcji f(X) jest zależność liniowa: Y = aX + b. W ogólnym przypadku f(X) może reprezentować również dowolny model, który jest liniowy względem parametrów funkcji (kombinacje liniowe dowolnych funkcji Y względem X).
Zmienna Y jest nazywana zmienną zależną lub objaśnianą. Zmienna X nazywa się zmienną niezależną lub objaśniającą.
Celem dopasowania jest przede wszystkim uzyskanie ocen wartości współczynników założonej funkcji (w przypadku prostej - parametrów a i b) oraz ich niepewności standardowych (dla prostej - u(a) i u(b)).
Główne założenia metody:
  • zależność między zmiennymi zależną i niezależną opisuje model f(X),
  • liczba obserwacji (punktów) m musi być większa od liczby oszacowanych parametrów funkcji (k), tj. m > k + 1,
  • zmienna niezależna ma charakter nielosowy, jej wartości są ustalonymi liczbami,
  • zmienna zależna ma charakter losowy opisywany rozkładem normalnym,
  • odchylenia standardowe wartości zmiennej zależnej są stałe (jednorodne).
Jakość dopasowania założonego modelu f(X) do danych eksperymentalnych określa wartość resztowego odchylenia standardowego (o wartości oczekiwanej 0), współczynnik korelacji (o wartości oczekiwanej 1) lub analiza rozkładu reszt regresyjnych.