Generalizirani najmanjši kvadrati

Iz Wikipedije, proste enciklopedije

V statistiki so generalizirani najmanjši kvadrati (GLS) metoda, ki se uporablja za ocenjevanje neznanih parametrov v linearnem regresijskem modelu, kadar obstaja določena stopnja korelacije med reziduali regresijskega modela. V takšnih primerih morata biti navadna metoda najmanjših kvadratov in metoda uteženih najmanjših kvadratov morda statistično bolj učinkoviti ali pa to vodi do zavajajočih sklepov. GLS je leta 1935 prvič opisal Alexander Aitken.[1]

Opis metode[uredi | uredi kodo]

V standardnih modelih linearne regresije se opazujejo podatki na n statističnih enotah . Vrednosti odziva so postavljene v vektor , vrednosti napovedovalca pa so postavljene v matriko načrtovanja , kjer je vektor k napovedovalnih spremenljivk (vključno s konstanto) za i- to enoto. Model vsiljuje pogojno povprečje podano z , da je linearna funkcija in predpostavlja pogojno varianco napake podanega izraza , ki je znana nesingularna kovariančna matrika . To je običajno zapisano kot

Tukaj je vektor neznanih konstant (znanih kot "regresijski koeficienti"), ki jih je treba oceniti iz podatkov.

Recimo, da je ocena kandidata za . Sledi, da je rezidualni vektor za definiran kot . Generalizirana metoda najmanjših kvadratov oceni z minimiziranjem kvadrata Mahalanobisove razdalje tega rezidualnega vektorja:

kjer se zadnja dva izraza ovrednotita v skalarja, kar povzroči

Ta kriterij je kvadratna forma v .

Z odvajanjem te kvadratne forme glede na in enačenjem z nič (ko ) dobimo

Zato lahko izračunamo minimum kriterijske funkcije in dobimo eksplicitno formulo:

Količina je znana kot matrika natančnosti (ali disperzijska matrika ), posplošitev diagonalne utežne matrike.


Sklici[uredi | uredi kodo]

  1. Aitken, A. C. (1935). »On Least Squares and Linear Combinations of Observations«. Proceedings of the Royal Society of Edinburgh. 55: 42–48. doi:10.1017/s0370164600014346.