Najmanjši kvadrati

Iz testwiki
Redakcija dne 21:29, 22. december 2023 od imported>InternetArchiveBot (Bluelink 1 book for Preverljivost (20231222)) #IABot (v2.0.9.5) (GreenC bot)
(razl) ← Starejša redakcija | prikaži trenutno redakcijo (razl) | Novejša redakcija → (razl)
Pojdi na navigacijo Pojdi na iskanje
Rezultat prilagajanja niza podatkovnih točk s kvadratno funkcijo
Konično prileganje nabora točk z uporabo približka najmanjših kvadratov

Metoda najmanjših kvadratov je standardni pristop v regresijski analizi za približek rešitve predeterminiranih sistemov (nizov enačb, v katerih je več enačb kot neznank) z minimiziranjem vsote kvadratov rezidualov (rezidual je razlika med opazovano vrednostjo in ocenjeno vrednostjo, ki jo zagotavlja model), narejeno na podlagi rezultata vsake posamezne enačbe.

Najpomembnejša uporaba je pri prilagajanju podatkov. Kadar ima problem precejšnjo negotovost neodvisne spremenljivke (spremenljivka x), se pojavijo težave pri preprostih regresijskih modelih in metodah najmanjših kvadratov. V takih primerih se lahko za problem prilagajanja podatkov namesto metodologije najmanjših kvadratov uporabi metodologijo modelov napak v spremenljivkah.

Problem najmanjših kvadratov se lahko deli v dve kategoriji: linearni ali navadni najmanjši kvadrati in nelinearni najmanjši kvadrati, odvisno od tega, ali so reziduali linearni pri vseh neznankah ali ne. Linearni problem najmanjših kvadratov se pojavlja pri statistični regresijski analizi, kjer obstaja rešitev eksplicitne oblike. Nelinearni problem se običajno reši z iterativnim izboljševanjem, kjer je pri vsaki iteraciji sistem aproksimiran z linearnim, zato je osnovni izračun v obeh primerih podoben.

Opis problema

Cilj je prilagajanje parametrov funkcije modela, da se najbolje prilegajo naboru podatkov. Preprost nabor podatkov je sestavljen iz n točk (parov podatkov) (xi,yi), i = 1, …, n, kjer je xi neodvisna spremenljivka in yi odvisna spremenljivka, katere vrednost se ugotovi z opazovanjem. Funkcija modela ima obliko f(x,β), kjer je v vektorju shranjenih m nastavljivih parametrov β . Cilj je najti vrednosti parametrov za model, ki se "najboljše" prilega podatkom. Prileganje modela podatkovni točki se meri z njegovim rezidualom, opredeljenim kot razlika med opazovano vrednostjo odvisne spremenljivke in vrednostjo, ki jo napoveduje model:

ri=yif(xi,β).
Reziduali so prikazani z ustreznimi x vrednostmi. Naključna nihanja okoli ri=0 kažejo, da je linearni model primeren.

Metoda najmanjših kvadratov najde optimalne vrednosti parametrov z minimiziranjem vsote kvadratov rezidualov, S : [1]

S=i=1nri2.

Reševanje problema najmanjših kvadratov

Najmanjšo vsoto kvadratov najdemo z enačenjem gradienta z nič. Ker model vsebuje m parametrov, obstaja m gradientnih enačb:Sβj=2iririβj=0, j=1,,m,in ker ri=yif(xi,β) postanejo gradientne enačbe2irif(xi,β)βj=0, j=1,,m.Enačbe gradienta veljajo za vse probleme najmanjših kvadratov. Vsak poseben problem zahteva posebne izraze za model in njegove parcialne odvode. [2]

Linearni najmanjši kvadrati

Regresijski model je linearen, ko model obsega linearno kombinacijo parametrov, tj.f(x,β)=j=1mβjϕj(x),kjer je funkcija ϕj odvisna od x.[2]

Predpostavimo Xij=ϕj(xi) in nato vstavimo neodvisne in odvisne spremenljivke v matriki X in Y. Najmanjše kvadrate lahko izračunamo na sledeč način. Upoštevajte, da je D množica vseh podatkov. [2][3]L(D,β)=YXβ2=(YXβ)𝖳(YXβ)=Y𝖳YY𝖳Xββ𝖳X𝖳Y+β𝖳X𝖳XβGradient kriterijske funkcije je:L(D,β)β=(Y𝖳YY𝖳Xββ𝖳X𝖳Y+β𝖳X𝖳Xβ)β=2X𝖳Y+2X𝖳XβGradient kriterijske funkcije enačimo z nič in nato rešimo za β in tako dobimo:[2][3]2X𝖳Y+2X𝖳Xβ=0X𝖳Y=X𝖳Xββ^=(X𝖳X)1X𝖳Y

Sklici

Predloga:Sklici

Predloga:Normativna kontrola