Generalizirani najmanjši kvadrati

Iz testwiki
Pojdi na navigacijo Pojdi na iskanje

Predloga:Razlikuj V statistiki so generalizirani najmanjši kvadrati (GLS) metoda, ki se uporablja za ocenjevanje neznanih parametrov v linearnem regresijskem modelu, kadar obstaja določena stopnja korelacije med reziduali regresijskega modela. V takšnih primerih morata biti navadna metoda najmanjših kvadratov in metoda uteženih najmanjših kvadratov morda statistično bolj učinkoviti ali pa to vodi do zavajajočih sklepov. GLS je leta 1935 prvič opisal Alexander Aitken.[1]

Opis metode

V standardnih modelih linearne regresije se opazujejo podatki {yi,xij}i=1,,n,j=2,,k na n statističnih enotah . Vrednosti odziva so postavljene v vektor 𝐲=(y1,,yn)𝖳, vrednosti napovedovalca pa so postavljene v matriko načrtovanja 𝐗=(𝐱1𝖳,,𝐱n𝖳)𝖳, kjer je𝐱i=(1,xi2,,xik) vektor k napovedovalnih spremenljivk (vključno s konstanto) za i- to enoto. Model vsiljuje pogojno povprečje 𝐲 podano z 𝐗, da je linearna funkcija 𝐗 in predpostavlja pogojno varianco napake podanega izraza 𝐗, ki je znana nesingularna kovariančna matrika Ω . To je običajno zapisano kot

𝐲=𝐗β+ε,E[ε𝐗]=0, Cov[ε𝐗]=Ω.

Tukaj je βk vektor neznanih konstant (znanih kot "regresijski koeficienti"), ki jih je treba oceniti iz podatkov.

Recimo, da je 𝐛 ocena kandidata za β . Sledi, da je rezidualni vektor za 𝐛 definiran kot 𝐲𝐗𝐛. Generalizirana metoda najmanjših kvadratov oceni β z minimiziranjem kvadrata Mahalanobisove razdalje tega rezidualnega vektorja:

β^=argminb(𝐲𝐗𝐛)𝖳Ω1(𝐲𝐗𝐛)=argminb𝐲𝖳Ω1𝐲+(𝐗𝐛)𝖳Ω1𝐗𝐛𝐲𝖳Ω1𝐗𝐛(𝐗𝐛)𝖳Ω1𝐲,

kjer se zadnja dva izraza ovrednotita v skalarja, kar povzroči

β^=argminb𝐲𝖳Ω1𝐲+𝐛𝖳𝐗𝖳Ω1𝐗𝐛2𝐛𝖳𝐗𝖳Ω1𝐲.

Ta kriterij je kvadratna forma v 𝐛 .

Z odvajanjem te kvadratne forme glede na 𝐛 in enačenjem z nič (ko 𝐛=β^ ) dobimo

2𝐗𝖳Ω1𝐗β^2𝐗𝖳Ω1𝐲=0

Zato lahko izračunamo minimum kriterijske funkcije in dobimo eksplicitno formulo:

β^=(𝐗𝖳Ω1𝐗)1𝐗𝖳Ω1𝐲.

Količina Ω1 je znana kot matrika natančnosti (ali disperzijska matrika ), posplošitev diagonalne utežne matrike.


Sklici

Predloga:Sklici