Monday 6 November 2017

Przeciętnie vs autoregresywny


Autoregresywna średnia ruchoma - ARIMA DEFINICJA Autoregalicznej Zintegrowanej Ruchowej Średnia - ARIMA Statystyczny model analizy wykorzystujący dane z serii czasowej do przewidywania przyszłych trendów. Jest to forma analizy regresji, która ma na celu przewidywanie przyszłych ruchów wzdłuż pozornie losowego chodu przeprowadzanego przez zasoby i rynek finansowy, analizując różnice między wartościami w serii, zamiast używać rzeczywistych wartości danych. Uchybienia zróżnicowanych serii są określane jako autoregresywne i opóźnienia w przewidywanych danych są określane jako średnia ruchoma. ROZPUSZCZALNE Autoregresywna średnia ruchoma - ARIMA Ten typ modelu zazwyczaj określa się jako ARIMA (p, d, q), z liczbami całkowitymi odnoszącymi się do autoregresji. odpowiednio zintegrowane i poruszające się przeciętne części zbioru danych. Modelowanie ARIMA może uwzględniać trendy, sezonowość. cykle, błędy i niestacjonarne aspekty zbioru danych podczas prognozowania. Średnia przemieszczająca się średnia ARMA (p, q) Modele analizy serii czasowej - część 1 W ostatnim artykule przyjrzeliśmy się losowym chodzeniom i białym hałasem jako podstawowe modele szeregów czasowych dla niektórych instrumentów finansowych, takich jak codzienne indeksy akcji i indeksy akcji. Odkryliśmy, że w niektórych przypadkach model losowego spaceru był niewystarczający do uchwycenia pełnego zachowania autokorelacji instrumentu, co motywuje bardziej wyrafinowane modele. W następnych kilku artykułach omówimy trzy typy modelu, a mianowicie model Autoregresji (AR) rzędu p, Model Ruchowej Średniej Średnicy (MA) q oraz mieszany model ARM (Algomous Moving Average) dla p , q. Te modele pomogą nam spróbować przechwycić lub wyjaśnić więcej korelacji szeregowej obecnej w instrumencie. Ostatecznie dostarczą nam środków przewidywania przyszłych cen. Jednak dobrze wiadomo, że szereg czasów finansowych posiada własność znaną jako klasteryzacja zmienności. Oznacza to, że zmienność instrumentu nie jest stała w czasie. Określenie techniczne tego zachowania jest znane jako warunkowa heteroskedastyczność. Ponieważ modeli AR, MA i ARMA nie są warunkami heteroskedystycznymi, tzn. Nie biorą pod uwagę klastrowania zmienności, będziemy potrzebować bardziej wyrafinowanego modelu naszych przewidywań. Modele takie obejmują model Autogressive Conditioner Heteroskedastic (ARCH) oraz uogólniony model Autogressive Conditioner Heteroskedastic (GARCH) oraz wiele jego wariantów. GARCH jest szczególnie dobrze znany w dziedzinie finansów kwantowych i jest wykorzystywany przede wszystkim do symulacji czasowych finansowych finansowych jako środka oceny ryzyka. Jednak podobnie jak w przypadku wszystkich artykułów QuantStart chcę zbudować te modele z prostszych wersji, dzięki czemu możemy zobaczyć, jak każdy nowy wariant zmienia nasza zdolność przewidywania. Pomimo faktu, że AR, MA i ARMA są stosunkowo prostymi modelami serii czasowych, są one podstawą bardziej skomplikowanych modeli, takich jak autonomiczna średnia ruchoma (ARIMA) i rodzina GARCH. Dlatego ważne jest, abyśmy je badali. Jedną z naszych pierwszych strategii handlowych w serii artykułów z serii czasowych będzie łączenie ARIMA i GARCH w celu przewidywania cen n okresów wcześniej. Jednak musimy poczekać, aż będziemy dyskutować zarówno na temat ARIMA, jak i GARCH oddzielnie, zanim zastosujemy je do prawdziwej strategii. Jak będziemy kontynuować W tym artykule zamierzamy przedstawić kilka nowych koncepcji serii czasowych, które wymagają innych metod, a mianowicie ściśle stacjonarności i kryterium informacyjnego Akaike (AIC). Po tych nowych koncepcjach będziemy śledzić tradycyjny wzór studiów nad nowymi modelami serii czasowych: Uzasadnienie - pierwszym zadaniem jest dostarczenie powody, dla którego interesował się konkretnym modelem jako quants. Dlaczego wprowadzamy model serii czasowej Jakie efekty można uchwycić Co zyskujemy (lub zgubimy) przez dodanie większej złożoności Definicja - musimy dostarczyć pełnej definicji matematycznej (i powiązanej notacji) modelu szeregu czasowego, aby zminimalizować jakiejkolwiek niejednoznaczności. Właściwości drugiego zamówienia - omówimy (aw niektórych przypadkach) właściwości drugiego rzędu modelu szeregów czasowych, w tym jego średnią, jej odchylenie i funkcję autokorelacji. Korelogram - Użyjemy właściwości drugiego rzędu, aby wykreślić korelogram realizacji modelu szeregów czasowych w celu wizualizacji jego zachowania. Symulacja - będziemy symulować realizację modelu serii czasowej, a następnie dopasować model do tych symulacji, aby zapewnić dokładne implementacje i zrozumieć proces dopasowywania. Prawdziwe dane finansowe - dopasujemy model serii czasowej do rzeczywistych danych finansowych i rozważmy korelikę reszt, aby zobaczyć, jak model stanowi korelację szeregową w pierwotnej serii. Przewidywanie - opracujemy prognozy n-krokowe modelu szeregów czasowych dla poszczególnych realizacji, aby ostatecznie wytworzyć sygnały handlowe. Prawie wszystkie artykuły, które piszę w modelach serii czasowych, wpuszczą się w ten wzorzec i pozwolą nam łatwo porównać różnice między każdym modelem, gdy dodajemy kolejną złożoność. Zaczęlibyśmy patrząc na ścisłą stacjonarność i AIC. Ściśle stacjonarne Dostarczamy definicji stacjonarności w artykule o korelacji szeregowej. Ponieważ jednak wejdziemy w sferę wielu serii finansowych, z różnymi częstotliwościami, musimy zadbać o to, aby nasze (ewentualnie) modele uwzględniały zmieniającą się w czasie zmienność tych serii. W szczególności musimy rozważyć ich heteroskedastyczność. Rozwiążemy ten problem, próbując dopasować niektóre modele do serii historycznych. Ogólnie rzecz biorąc, nie wszystkie korelacje szeregowe w resztach zamontowanych modeli można rozliczyć bez uwzględnienia heteroskedastyczności. Powoduje to powrót do stacjonarności. Seria nie jest stacjonarna w wariancji, jeśli ma ona z czasem zmienną zmienność. To motywuje bardziej rygorystyczną definicję stacjonarności, a mianowicie ścisłej stacjonarności: ścisła stacjonarna seria serii A, jest stacjonarna, jeśli wspólny rozkład statystyczny elementów x, ldots, x jest taki sam jak xm, ldots, xm, forall ti, m. Można myśleć o tej definicji tak po prostu, że rozkład szeregów czasowych jest niezmieniony w przypadku dowolnego przeskoku w czasie. W szczególności średnia i wariacja są stałe w czasie dla ściśle nieruchomej serii, a autokoromiarność pomiędzy xt i xs (powiedzmy) zależy tylko od absolutnej różnicy t i s, t-s. W przyszłych postach będziemy przeglądać stacjonarne serie. Kryterium informacyjne Akaike Wspomniałem w poprzednich artykułach, że musimy rozważyć, jak wybrać między osobnymi najlepszymi modelami. Dotyczy to nie tylko analizy serii czasowej, ale także nauki maszynowe, a szerzej - statystyki w ogóle. Dwie główne metody, które wykorzystamy (na razie), to Akaike Information Criterion (AIC) i Bayesian Information Criterion (w miarę postępów w naszych artykułach na temat statystyki Bayesiana). Cóż, krótko rozważyć AIC, ponieważ będzie to używane w części 2 artykułu ARiMR. AIC jest zasadniczo narzędziem wspomagającym dobór modelu. Oznacza to, że jeśli mamy wybór modeli statystycznych (w tym serii czasowych), to AIC szacuje jakość każdego modelu w stosunku do innych, które są dostępne. Opiera się na teorii informacji. co jest bardzo interesujące, głęboki temat, niestety nie możemy przejść zbyt wiele szczegółów. Próbuje zrównoważyć złożoność modelu, który w tym przypadku oznacza liczbę parametrów, jak dobrze pasuje do danych. Pozwala podać definicję: Kryterium informacyjne Akaike Jeśli weźmiemy funkcję prawdopodobieństwa dla modelu statystycznego, który ma k parametry, a L zmaksymalizuje prawdopodobieństwo. to Akaike Information Criterion jest podawany przez: Preferowany model, z wybranych modeli, zawiera minium AIC grupy. Można zauważyć, że AIC wzrasta wraz z liczbą parametrów, k, wzrasta, ale jest zmniejszona, jeśli ujemne prawdopodobieństwo logowania wzrasta. Zasadniczo penalizuje modele, które są nadmierne. Będziemy tworzyć modele AR, MA i ARMA różnych zamówień i jednym ze sposobów na wybranie najlepszego modelu dopasowanego do konkretnego zestawu danych jest użycie AIC. To dobrze, co robimy w następnym artykule, głównie w modelach ARMA. Modele autoregresji (AR) Modele porządku p Pierwszy model rozważany, będący podstawą części 1, jest autoregresywnym modelem porządku p, często skróconym do AR (p). W poprzednim artykule rozważaliśmy losowy chód. gdzie każdy termin, xt jest zależny wyłącznie od poprzedniego określenia, x i stochastycznego białego szumu, wt: model autoregresji jest po prostu rozszerzeniem losowego chodu, który zawiera terminy z czasem w czasie. Struktura modelu jest liniowa. to jest model zależny liniowo od poprzednich warunków, z współczynnikami dla każdej kadencji. To właśnie tam regresywny pochodzi z autoregresji. Jest to zasadniczo model regresji, w którym poprzednie predykaty są czynnikami predykcyjnymi. Autoregresywny Model zamawiania p Model serii czasowej,, jest autoregresywnym modelem zamówienia s. AR (p), jeśli: rozpocznij xt alfa1 x ldoty alfa x suma p alai x koniec wagi Gdzie białe szumy i alfa w mathbb, z alfabetem neq 0 dla autoregresji z kolejnością p. Jeśli weźmiemy pod uwagę Operatora Przesuwania Wstecznego. (patrz poprzedni artykuł) możemy następnie przepisać powyższe jako funkcję theta: begin thetap () xt (1 - alpha1 - alpha2 2 - ldots - alphap) xt wt end Może być pierwszą rzeczą, jaką należy zwrócić uwagę na model AR (p) jest to, że przypadkowy chód po prostu jest AR (1), a alfa1 równy jedności. Jak wspomniano powyżej, model autogresyjny jest przedłużeniem losowego chodu, więc ma to sens. Łatwo jest przewidzieć model AR (p), na dowolny czas t, jak raz ustalamy współczynniki alfa, nasz szacunek po prostu staje się: start hat t alpha1 x ldots alphap x end W związku z tym możemy zrobić n-step ahead prognozy poprzez produkcję hat t, kapelusz, kapelusz itp. do kapelusza. W rzeczywistości, gdy weźmiemy pod uwagę modele ARMA w części 2, użyjemy funkcji prognozowania R do tworzenia prognoz (wraz z standardowymi przedziałami ufności błędów), które pomogą nam w produkcji sygnałów handlowych. Stacjonarność dla procesów autoregresyjnych Jednym z najważniejszych aspektów modelu AR (p) jest to, że nie zawsze stacjonuje. Rzeczywiście stacjonarność danego modelu zależy od parametrów. Ive dotknął tego przed w poprzednim artykule. Aby ustalić, czy proces AR (p) jest nieruchomy, czy nie, musimy rozwiązać równanie charakterystyczne. Równanie charakterystyczne jest po prostu modelem autoregresji, zapisanym w formie przesunięcia wstecznego, ustawionym na zero: rozwiązujemy to równanie. Aby proces autoregresji stał się nieruchoma, potrzebujemy wszystkich absolutnych wartości korzeni tego równania, aby przekroczyć jedność. Jest to bardzo użyteczna własność i pozwala nam szybko obliczyć, czy proces AR (p) jest nieruchomy, czy nie. Rozważmy kilka przykładów, aby ten pomysł był konkretny: Random Walk - proces AR (1) z alfa1 ma charakterystyczny równanie theta 1 -. Jest oczywiste, że ma korzeń 1 i jako taki nie jest stacjonarny. AR (1) - Jeśli wybierzemy alfa1 frac otrzymamy xt frac x wt. Daje to nam charakterystyczny równanie 1-frac 0, który ma korzeń 4 gt 1, a więc ten szczególny proces AR (1) jest nieruchome. AR (2) - Jeśli ustawimy alpha1 alfa2frac otrzymamy xt frac x frac x wt. Jego charakterystyczne równanie staje się - frac () () 0, co daje dwa korzeni 1, -2. Ponieważ ma korpus jednostkowy, jest to niestacjonarne serie. Jednak inne serie AR (2) mogą być nieruchome. Właściwości drugiego zamówienia Średnia wartość procesu AR (p) wynosi zero. Autokomisy i autokorelacje są jednak podawane przez funkcje rekurencyjne, znane jako równanie Yule-Walker. Pełne właściwości podano poniżej: begin mux E (xt) 0 begin begin gammak sum p alphai gamma, enspace k 0 end begin rhok sum p alphai rho, enspace k 0 end Pamiętaj, że przed wartością parametru alphai konieczne jest znać parametry alfa obliczanie autokorelacji. Teraz, gdy stwierdziliśmy, że właściwości drugiego rzędu możemy symulować różne rzędy AR (p) i sprecyzować odpowiadające im reguły. Symulacje i korelogramy Zaczynamy od procesu AR (1). Jest to podobne do losowego chodu, z tym że alfa1 nie musi być równa jedności. Nasz model będzie miał alpha1 0,6. Kod R do utworzenia tej symulacji jest następujący: Zauważ, że nasz pętli for jest wykonywany od 2 do 100, a nie od 1 do 100, jako xt-1, gdy t0 nie jest indeksowalny. Podobnie w przypadku procesów AR (p) wyższego rzędu, t w pętli musi wynosić od p do 100. Możemy sprecyzować realizację tego modelu i jego związanego z nim korplamtu za pomocą funkcji układu: teraz spróbujmy dopasować proces AR (p) do symulowanych danych, które właśnie wygenerowaliśmy, aby sprawdzić, czy możemy odzyskać podane parametry. Można sobie przypomnieć, że przeprowadziliśmy podobną procedurę w artykule dotyczącym białego szumu i losowych spacerów. Jak się okazuje, R dostarcza użytecznych komend do dopasowania do modeli autoregresji. Możemy użyć tej metody, aby najpierw powiedzieć nam najlepszą kolejność modelu (określoną przez AIC powyżej) i podać nam szacunki parametrów dla alfa, które następnie można wykorzystać do utworzenia przedziałów ufności. Dla kompletności, powtórzmy serię x: Teraz używamy komendy ar, aby dopasować model autoregresji do naszego symulowanego procesu AR (1), przy zastosowaniu metody MLE (maksymalnej oceny prawdopodobieństwa) jako procedury dopasowania. Najpierw wyodrębnimy najlepszy uzyskany rozkaz: komenda ar z powodzeniem określiła, że ​​nasz model szeregów czasowych jest procesem AR (1). Następnie można otrzymać szacunki parametrów alfanumerycznych: procedura MLE wyprowadziła szacunek, kapelusz 0.523, który jest nieco niższy niż prawdziwa wartość alfa1.6. Wreszcie, możemy użyć standardowego błędu (z asymptotyczną odmianą) w celu skonstruowania 95 przedziałów ufności wokół podstawowego parametru (ów). Aby to osiągnąć, po prostu utworzymy wektor c (-1.96, 1.96), a następnie pomnoż go przez błąd standardowy: Prawidłowy parametr wchodzi w zakres 95 przedziału ufności, ponieważ wed oczekuje od faktu, że wygenerowaliśmy realizację z modelu konkretnie . Jeśli chodzi o zmianę alfa1 -0.6 Tak jak wcześniej możemy dopasować model AR (p) przy użyciu ar: Po raz kolejny odzyskamy prawidłową kolejność modelu, z bardzo dobrym szacunkiem kapelusz -0.597 z alfa1-0.6. Widzimy również, że prawdziwy parametr wchodzi w zakres 95 powtórzeń zaufania. Dodać trochę bardziej złożoności do naszych procesów autoregresji poprzez symulowanie modelu porządku 2. W szczególności ustawimy wartość alfa10.666, ale również ustawimy alpha2 -0.333. Jest to pełny kod do symulacji i plotowania realizacji, a także korespondencji w takich seriach: jak wcześniej widać, że koreltrram różni się znacznie od białego szumu, jak się spodziewamy. Istnieją statystycznie znaczące piki w k1, k3 i k4. Jeszcze raz użyjemy komendy ar do dopasowania modelu AR (p) do naszej podstawowej AR (2) realizacji. Procedura jest podobna jak w przypadku dopasowania AR (1): poprawna kolejność została odzyskana, a parametr szacuje kapelusz 0.696 i kapelusz -0.395 nie są zbyt daleko od rzeczywistych wartości parametrów alfa10.666 i alpha2-0.333. Zauważ, że otrzymujemy komunikat ostrzegawczy o konwergencji. Zwróć uwagę, że R faktycznie wykorzystuje funkcję arima0 do obliczania modelu AR. W kolejnych artykułach modele AR (p) są po prostu modelami ARIMA (p, 0, 0), a zatem model AR jest szczególnym przypadkiem ARIMA bez składnika Moving Average (MA). Również użyj komendy arima do tworzenia przedziałów ufności wokół wielu parametrów, dlatego nie przejmuj się tutaj. Teraz, gdy stworzyliśmy kilka symulowanych danych, nadszedł czas, aby zastosować modele AR (p) do serii czasowych aktywów finansowych. Dane finansowe Amazon Inc Zacznij od uzyskania ceny akcji Amazon (AMZN) przy użyciu quantmod jak w ostatnim artykule: Pierwszym zadaniem jest zawsze spiskować cenę za krótką wizualną inspekcję. W tym przypadku korzystając z codziennych cen zamknięcia: zauważysz, że kwant modyfikuje dla nas trochę formatowania, a mianowicie datę i nieco ładniejszy wykres niż zwykłe wykresy R: teraz będziemy przyjmować logarytmiczne zwroty AMZN, a następnie pierwsze - kolejność różnic w serii w celu przekształcenia oryginalnych serii cenowych z serii niestacjonarnych do (potencjalnie) stacjonarnych. Pozwala to porównać jabłka z jabłkami między akcjami, indeksami lub dowolnym innym składnikiem aktywów, do wykorzystania w późniejszych wielowymiarowych statystykach, na przykład przy obliczaniu macierzy kowariancji. Jeśli chcesz uzyskać szczegółowe wyjaśnienie, dlaczego powrót z dzienników jest preferowany, spójrz na ten artykuł w Quantivity. Pozwala tworzyć nową serię, amznrt. aby utrzymać nasze zróżnicowane logarysy: po raz kolejny możemy wydrukować serię: na tym etapie chcemy wykreślić krążek. Chciałby sprawdzić, czy zróżnicowane serie wyglądają jak biały szum. Jeśli tak nie jest, to jest niewyjaśniona korelacja szeregowa, co można wytłumaczyć modelem autoregresji. Znamy statystycznie znaczący szczyt w k2. Stąd istnieje uzasadniona możliwość niewymienionej korelacji szeregowej. Należy jednak pamiętać, że może to wynikać z tendencji do pobierania próbek. Jako taki możemy spróbować dopasować model AR (p) do serii i wydać przedziały ufności dla parametrów: dopasowanie modelu autoregresji ar do pierwszego rzędu zróżnicowanych serii cenników produkuje model AR (2), z kapeluszem -0,0278 i kapelusz -0,0687. Ive również wyprowadzić zmienność aysmptotyczną tak, że możemy obliczyć standardowe błędy dla parametrów i wydawać przedziały ufności. Chcemy sprawdzić, czy zero wchodzi w zakres 95-ciu przedziału ufności, czyniąc to zmniejsza naszą pewność, że mamy prawdziwy proces AR (2) bazujący na serii AMZN. Aby obliczyć przedziały ufności na poziomie 95 dla każdego parametru, używamy następujących poleceń. Przyjmujemy pierwiastek kwadratowy pierwszego elementu asymptotycznej macierzy odchylenia w celu wytworzenia standardowego błędu, a następnie utworzyć przedziały ufności przez pomnożenie go odpowiednio o 1,96 i 1,96, dla poziomu 95: Należy zauważyć, że staje się to bardziej proste przy użyciu funkcji arimy , ale poczekaj, aż do części 2 przed jej prawidłowym wprowadzeniem. Widzimy więc, że dla zera alfa1 znajduje się w przedziale ufności, podczas gdy dla zera zero 0 nie jest zawarty w przedziale ufności. W związku z tym powinniśmy być bardzo ostrożni, myśląc, że mamy prawdziwy model generowania AR (2) dla AMZN. W szczególności zauważamy, że model autoregresji nie uwzględnia klastrowania zmienności, co prowadzi do klastrowania szeregowej korelacji w szeregach finansowych. Kiedy weźmiemy pod uwagę modele ARCH i GARCH w późniejszych artykułach, będziemy to uwzględniać. Kiedy zaczniemy korzystać z pełnej funkcji arimy w następnym artykule, będziemy przewidywać dzienne dzienne szeregi cenowe, aby umożliwić nam tworzenie sygnałów handlowych. Indeks Kapitałowy SampP500 USA Wraz z poszczególnymi akcjami możemy wziąć pod uwagę indeks amerykańskiego indeksu akcji SampP500. Pozwala zastosować wszystkie poprzednie polecenia do tej serii i wyprodukować wykresy jak poprzednio: Możemy sprecyzować ceny: jak poprzednio, dobrze stworzyć różnicę pierwszego rzędu cen zamknięcia dziennika: po raz kolejny możemy wydrukować serię: jest jasne z tego wykresu, że zmienność nie jest stacjonarna w czasie. Znajduje to również odzwierciedlenie w działaniu korespregatora. Istnieje wiele pików, w tym k1 i k2, które są statystycznie znaczące poza modelem szumu białego. Ponadto widzimy dowody na długotrwałe procesy pamięci, ponieważ istnieją pewne statystycznie znaczące piki przy k16, k18 i k21: Ostatecznie będziemy potrzebować bardziej wyrafinowanego modelu niż autoregresywny model porządku. Na tym etapie nadal możemy spróbować dopasować taki model. Pozwala zobaczyć, co otrzymujemy, jeśli to zrobimy: Użycie ar generuje model AR (22), tj. Model z 22 parametrami niezerowymi Co to mówi nam Wskazuje, że istnieje prawdopodobieństwo znacznie większej złożoności w korelacji szeregowej niż prosty liniowy model poprzednich cen może naprawdę uwzględnić. Jednak już wiedzieliśmy to, ponieważ widać, że istnieje znaczna korelacja szeregowa w zmienności. Na przykład rozważyć bardzo niestabilny okres około 2008 roku. To motywuje kolejny zestaw modeli, mianowicie Moving Average MA (q) i ARMA (ARTYKUŁA ARTYKUŁOWEGO) z autoregresją (p, q). Dowiedzieć się o tych obu w części 2 niniejszego artykułu. Jak wielokrotnie wspominaliśmy, ostatecznie doprowadzą nas do rodzinnych modeli ARIMA i GARCH, z których oba przyniosą znacznie lepsze dopasowanie do złożoności korelacji szeregowej modelu Samp500. To pozwoli nam znacznie poprawić nasze prognozy i ostatecznie wyprodukować bardziej zyskowne strategie. Tylko początek handlu ilościami.8.3 Modele autoregresji W modelu regresji wielorakiej prognozujemy zmienną zainteresowania przy użyciu liniowej kombinacji predykcyjnych. W modelu autoregresji prognozujemy zmienną odsetkową przy użyciu kombinacji liniowej przeszłych wartości zmiennej. Termin regresja automatyczna wskazuje, że jest to regresja zmiennej przeciwko sobie. Zatem autoregresywny model porządku p można zapisać, gdy c oznacza stały i et biały szum. To jest jak regresja wielokrotna, ale z opóźnionymi wartościami yt jako predykatami. Odnoszę się do tego jako model AR (p). Modele autoregresyjne są niezwykle elastyczne w obsłudze wielu różnych wzorców serii czasowych. Na rysunku 8.5 przedstawiono dwie serie z modelu AR (1) i modelu AR (2). Zmiana parametrów phi1, kropek, wyników fip w różnych wzorcach szeregów czasowych. Odchylenie terminu błędów et zmieni tylko skalę serii, a nie wzorce. Rysunek 8.5: Dwa przykłady danych z modeli autoregresji o różnych parametrach. Lewo: AR (1) z yt 18 -0.8y et. Po prawej: AR (2) z yt 8 ​​1.3y -0.7y et. W obu przypadkach, normalnie rozprowadzany jest biały szum o średniej zerowej i wariancji. W przypadku modelu AR (1): Gdy phi10, yt odpowiada białemu szumowi. Kiedy phi11 i c0, yt jest równoznaczne z losowym chodem. Kiedy phi11 i cne0, yt jest równoznaczne z przypadkowym chodem z dryftem Gdy phi1lt0, yt ma tendencję do oscylowania między wartościami dodatnimi i ujemnymi. Zwykle ograniczamy modele autoregresji do stacjonarnych danych, a następnie pewne ograniczenia wartości parametrów są wymagane. Dla modelu AR (1): -1 lt phi1 lt 1. Dla modelu AR (2): -1 lt phi2 lt1, phi1phi2 lt 1, phi2-phi1 lt 1. Gdy pge3 ograniczenia są znacznie bardziej skomplikowane. R uwzględnia te ograniczenia podczas szacowania modelu.2.1 Ruchome modele średnie (modele MA) Modele serii czasowej znane jako modele ARIMA mogą obejmować pojęcia autoregresyjne i średnie ruchome. W pierwszym tygodniu dowiedzieliśmy się, że termin autoregresji w modelu szeregów czasowych dla zmiennej x t jest opóźnioną wartością x t. Na przykład terminem autoregresji 1 opóźnienia jest x t-1 (pomnożony przez współczynnik). Ta lekcja definiuje ruchome średnie terminy. Ruchoma średnia wersja w modelu szeregów czasowych jest błędem w przeszłości pomnożonym przez współczynnik. Niech (przewyższa N (0, sigma2w)), co oznacza, że ​​w t są identycznie, niezależnie rozdzielane, każdy z normalnym rozkładem mającym średnią 0 i tę samą wariancję. Średni model średniej ruchomej, oznaczony symbolem MA (1) to (xt mu wt atta1w) Średni model ruchu średniego rzędu, oznaczony symbolem MA (2) to (xt mu wt atta1w theta2w) , oznaczone literą MA (q) jest (xt mc i k ta2t w kropki tetaqw) Uwaga. Wiele podręczników i programów definiuje model z negatywnymi znakami przed terminami. To nie zmienia ogólnych teoretycznych właściwości modelu, chociaż odwraca znaki algebraiczne oszacowanych wartości współczynników i (niezakłóconych) w formułach dla ACF i wariancji. Musisz sprawdzić oprogramowanie w celu sprawdzenia, czy użyto negatywnych lub pozytywnych oznaczeń w celu poprawnego zapisania szacowanego modelu. R używa pozytywnych oznaczeń w swoim modelu bazowym, tak jak tutaj. Właściwości teoretyczne serii czasowej z modelem MA (1) Należy pamiętać, że jedyną niższą wartością w teoretycznym ACF jest opóźnienie 1. Wszystkie inne autokorelacje wynoszą 0. Tak więc próbka ACF o znacznej autokorelacji tylko w punkcie 1 jest wskaźnikiem możliwego modelu MA (1). Dla zainteresowanych studentów, dowody dotyczące tych właściwości stanowią załącznik do niniejszego materiału informacyjnego. Przykład 1 Załóżmy, że model MA (1) wynosi x t 10 w t .7 w t-1. gdzie (nadwrażliwość N (0,1)). Współczynnik 1 0,7. Teoretyczny ACF podano w poniższym wykresie ACF. Przedstawiona fabuła jest teoretycznym ACF dla MA (1) z 1 0,7. W praktyce próbka zazwyczaj nie dostarcza tak wyraźnego wzorca. Używając R, symulujemy 100 wartości próbek przy użyciu modelu x t 10 w t .7 w t-1, gdzie w t iid N (0,1). W tej symulacji powstaje ciąg szeregowy danych przykładowych. Nie możemy wiele powiedzieć z tej fabuły. Poniżej znajduje się próbka ACF dla danych symulowanych. Widzimy skok w punkcie 1, a następnie ogólnie wartości nieistotne dla opóźnień 1. Pamiętaj, że próbka ACF nie jest zgodna z teoretycznym wzorem MA (1) leżącego u podstawy, co oznacza, że ​​wszystkie autokorelacje w przypadku opóźnień 1 będą 0 Inna próbka miałaby nieco inną próbkę ACF pokazaną poniżej, ale najprawdopodobniej miałyby takie same cechy. Właściwości terapeutyczne serii czasowej z modelem MA (2) Dla modelu MA (2), właściwości teoretyczne są następujące: Należy zauważyć, że jedynymi wartościami niezonarnymi w teoretycznym ACF są opóźnienia 1 i 2. Autokorelacje dla wyższych opóźnień to 0 Więc próba ACF o istotnych autokorelacjach w przypadku opóźnień 1 i 2, ale nieistotne autokorelacje dla wyższych opóźnień wskazują na możliwy model MA (2). iid N (0,1). Współczynniki wynoszą 1 0,5 i 2 0,3. Ponieważ jest to MA (2), teoretyczny ACF będzie miał wartości inne niż z opóźnieniami 1 i 2. Wartości dwóch niezerowych autokorelacji to wykres A teoretycznej ACF. Jak prawie zawsze jest tak, dane próbki nie zachowują się tak doskonale jak teoria. Symulujemy n 150 wartości próbek dla modelu x t 10 w t .5 w t-1 .3 w t-2. gdzie w t iid N (0,1). Sporządza się szeregowy szereg danych. Podobnie jak w przypadku szeregów czasowych dla danych próbki MA (1), niewiele można powiedzieć o tym. Poniżej znajduje się próbka ACF dla danych symulowanych. Wzór jest typowy dla sytuacji, gdy model MA (2) może być użyteczny. Istnieją dwa statystycznie istotne skoki przy opóźnieniach 1 i 2, po których następują nieistotne wartości dla innych opóźnień. Zauważ, że z powodu błędu pobierania próbek próbka ACF nie pasowała dokładnie do teoretycznego wzoru. ACF dla modeli MA (q) Modeli Ogólną cechą modeli MA (q) jest to, że dla wszystkich pierwszych opóźnień q i autokorelacji 0 dla wszystkich luków gtq istnieją autokorelacje nie zerowe. Niepowtarzalność połączenia pomiędzy wartościami 1 i (rho1) w modelu MA (1). W modelu MA (1) dla dowolnej wartości 1. odwrotny 1 1 daje taką samą wartość jak dla przykładu, użyj 0,5 dla 1. a następnie użyj 1 (0.5) 2 dla 1. Otrzymasz (rho1) 0,4 w obu przypadkach. Aby zaspokoić teoretyczne ograniczenie zwane "invertibility". ograniczamy modele MA (1) do wartości z wartością bezwzględną mniejszą niż 1. W podanym przykładzie, 1 0,5 będzie dopuszczalną wartością parametru, podczas gdy 1 10,5 2 nie będzie. Odwrotność modeli MA Model macierzowy jest odwracalny, jeśli jest on algebraiczny, odpowiadający modelowi zbiegającemu się z nieskończonym modelem AR. Zbiegając się, rozumiemy, że współczynniki AR zmniejszają się do 0, gdy wracamy w czasie. Inwersja to ograniczenie zaprogramowane w oprogramowanie serii czasowej służące do oszacowania współczynników modeli z hasłami. To nie coś, co sprawdzamy w analizie danych. Dodatkowe informacje o ograniczeniu inwersji dla modeli MA (1) podano w dodatku. Uwagi dotyczące teorii zaawansowanej. W modelu MA (q) z określonym ACF jest tylko jeden model odwracalny. Warunkiem koniecznym do odwrócenia jest fakt, że współczynniki mają takie wartości, że równanie 1- 1 y-. - q y q 0 ma rozwiązania dla y, które leżą poza okręgiem jednostkowym. R dla przykładów W przykładzie 1 wykreślono teoretyczny ACF modelu x t 10 w t. 7w t-1. a następnie symulowane n 150 wartości z tego modelu i wykreślono szereg próbkowania i próbkę ACF dla danych symulowanych. Polecenia R służące do sporządzenia teoretycznej ACF to: acfma1ARMAacf (mac (0.7), lag. max10) 10 opóźnień ACF dla MA (1) z theta1 0,7 lags0: 10 tworzy zmienną o nazwie opóźnienia w zakresie od 0 do 10 (h0) dodaje osi poziomej do wykresu Pierwsze polecenie określa ACF i zapisuje je w obiekcie (np. o nazwie acfma1 (nasz wybór nazwy). Polecenie wydruku (trzecie polecenie) powoduje błędy w porównaniu do wartości ACF dla opóźnień 1 do 10. Parametr ylab etykietuje na osi y, a główny parametr umieszcza tytuł na wykresie. Aby zobaczyć wartości liczbowe ACF, użyj komendy acfma1. Symulacje i wykresy zostały wykonane za pomocą następujących poleceń. xcarc. sim (n150, lista (mac (0.7))) Symuluje n 150 wartości z MA (1) xxc10 dodaje 10 do średniej 10. Domyślnie domyślne symulacje to 0. wykres (x, typeb, mainSimulated MA (1) data) acf (x, xlimc (1,10), mainACF dla symulowanych danych próbki) W przykładzie 2 wymyśliliśmy teoretyczny ACF modelu xt 10 wt5 w t-1 .3 w t-2. a następnie symulowane n 150 wartości z tego modelu i wykreślono szereg próbkowania i próbkę ACF dla danych symulowanych. Stosowane komendy R to acfma2ARMAacf (mac (0.5.0.3), lag. max10) acfma2 lags0: 10 (lags, acfma2, xlimc (1,10), ylabr, typh, główny ACF dla MA (2) z theta1 0,5, (x, x, x, x, x, x, x, x, x, x, x, y) mainACF dla symulowanych danych MA (2)) Dodatek: Dowód właściwości MA (1) Dla zainteresowanych studentów są dowody na teoretyczne właściwości modelu MA (1). Variance: (text (xt) text (mu wt theta1 w) tekst 0 (wt) tekst (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Kiedy h 1, poprzedni wyrażenie 1 w 2. W przypadku dowolnego h2, poprzednie wyrażenie 0 Powodem jest to, że z definicji niezależności wag. E (w k w j) 0 dla dowolnej kj. Ponadto, ponieważ w t oznaczają 0, E (wjwj) E (wj2) w2. W serii czasów Zastosuj ten wynik, aby uzyskać ACF podany powyżej. Inwersyjny model MA to taki, który można zapisać jako model AR nieskończony, który zbiega się tak, że współczynniki AR zbiegają się do 0, gdy poruszamy się nieskończenie wstecz w czasie. Dobrze wykazać inwersję modelu MA (1). Następnie zastępujemy relację (2) dla t-1 w równaniu (1) (3) (zt wt theta1 (z-taleta) wt theta1z-tal2w) W czasie t-2. (2) staje się zastępującym związek (4) dla t-2 w równaniu (3) (zt wt theta1 z - theta21w wt theta1z - eta21 (zteta1w) wt theta1z - eta12z theta31w) Gdybyśmy kontynuowali ( nieskończoność) dostaniemy model nieskończonej AR (zt wt theta1 z - theta21z theta31z-theta41z dots) Zauważ jednak, że jeśli 1 1, współczynniki mnożące opóźnienia z będą wzrastać (nieskończenie) w rozmiarze, gdy wracamy z powrotem czas. Aby temu zapobiec, potrzebujemy 1 lt1. Jest to warunek odwracalnego modelu MA (1). Model nieskoordynowanych zamówień MA W trzecim tygodniu dobrze widać, że model AR (1) można przekształcić w model MA nieskończonego rzędu: (xt - mu wt phi1w phi21w kropki phik1 w kropkach sumy fij1w) To sumowanie przeszłych hałasu białego jest znane jako przyczynę reprezentacji AR (1). Innymi słowy, x t jest specjalnym rodzajem magistra z nieskończoną liczbą terminów z czasem. Nazywa się to nieskończoną kolejnością MA lub MA (). Kończy się rozkazem MA jest nieskończona kolejność AR, a dowolny porządek AR jest rzędem nieskończonym rzędu. Przypomnijmy sobie w tygodniu 1, zauważyliśmy, że wymóg stacjonarnego AR (1) polega na tym, że 1 lt1. Pozwala obliczyć Var (xt) używając reprezentacji przyczynowej. W ostatnim kroku używa się podstawowych faktów dotyczących serii geometrycznych, które wymagają (phi1lt1), w przeciwnym razie serie rozbieżności. Nawigacja

No comments:

Post a Comment