Tuesday 4 July 2017

Acf Moving Average Prozess


Identifizieren der Zahlen von AR - oder MA-Terminen in einem ARIMA-Modell ACF - und PACF-Plots: Nachdem eine Zeitreihe durch Differenzierung stationärisiert wurde, ist der nächste Schritt bei der Anpassung eines ARIMA-Modells, um festzustellen, ob AR - oder MA-Begriffe benötigt werden, um jede Autokorrelation zu korrigieren Bleibt in der differenzierten Reihe. Natürlich, mit Software wie Statgraphics, können Sie nur versuchen, einige verschiedene Kombinationen von Begriffen und sehen, was am besten funktioniert. Aber es gibt einen systematischeren Weg, dies zu tun. Durch Betrachten der Autokorrelationsfunktion (ACF) und partiellen Autokorrelations - (PACF) - Plots der differenzierten Serien können Sie die Anzahl der benötigten AR - und MA-MA-Terme vorläufig identifizieren. Sie sind bereits mit dem ACF-Plot vertraut: Es ist nur ein Balkendiagramm der Koeffizienten der Korrelation zwischen einer Zeitreihe und Verzögerungen von sich selbst. Die PACF-Kurve ist eine Auftragung der partiellen Korrelationskoeffizienten zwischen der Serie und den Verzögerungen von sich selbst. Im Allgemeinen ist die quasiologische Korrelation zwischen zwei Variablen die Menge der Korrelation zwischen ihnen, die nicht durch ihre gegenseitigen Korrelationen mit einem bestimmten Satz von anderen Variablen erklärt wird. Wenn wir zum Beispiel eine Variable Y auf anderen Variablen X1, X2 und X3 rückgängig machen, ist die partielle Korrelation zwischen Y und X3 die Korrelation zwischen Y und X3, die nicht durch ihre gemeinsamen Korrelationen mit X1 und X2 erklärt wird. Diese partielle Korrelation kann als Quadratwurzel der Reduktion der Varianz berechnet werden, die durch Addition von X3 zur Regression von Y auf X1 und X2 erreicht wird. Eine partielle Autokorrelation ist die Menge der Korrelation zwischen einer Variablen und einer Verzögerung von sich selbst, die nicht durch Korrelationen bei allen niederwertigenlags erklärt wird. Die Autokorrelation einer Zeitreihe Y bei Verzögerung 1 ist der Koeffizient der Korrelation zwischen Yt und Yt - 1. Was vermutlich auch die Korrelation zwischen Y t -1 und Y t -2 ist. Aber wenn Y t mit Y t -1 korreliert ist. Und Y t -1 gleich mit Y t -2 korreliert ist. Dann sollten wir auch erwarten, eine Korrelation zwischen Yt und Yt-2 zu finden. In der Tat ist die Korrelation, die wir bei der Verzögerung 2 erwarten sollten, genau das Quadrat der Lag-1-Korrelation. Somit ist die Korrelation bei Verzögerung 1 quadratisch auf Verzögerung 2 und vermutlich auf höherwertige Verzögerungen. Die partielle Autokorrelation bei Verzögerung 2 ist daher die Differenz zwischen der tatsächlichen Korrelation bei der Verzögerung 2 und der erwarteten Korrelation aufgrund der Ausbreitung der Korrelation bei Verzögerung 1. Hierbei handelt es sich um die Autokorrelationsfunktion (ACF) der UNITS-Reihe, bevor eine Differenzierung durchgeführt wird: Die Autokorrelationen sind für eine große Anzahl von Verzögerungen bedeutsam - aber vielleicht sind die Autokorrelationen bei den Verzögerungen 2 und darüber nur auf die Ausbreitung der Autokorrelation bei Verzögerung 1 zurückzuführen. Dies wird durch die PACF-Kurve bestätigt: Beachten Sie, dass die PACF-Kurve eine signifikante Bedeutung hat Spike nur bei lag 1, was bedeutet, dass alle Autokorrelationen höherer Ordnung effektiv durch die Lag-1-Autokorrelation erklärt werden. Die partiellen Autokorrelationen an allen Verzögerungen können berechnet werden, indem man eine Folge von autoregressiven Modellen mit zunehmender Anzahl von Verzögerungen anpasst. Insbesondere ist die partielle Autokorrelation bei der Verzögerung k gleich dem geschätzten AR (k) - Koeffizienten in einem autoregressiven Modell mit k Terms - d. h. Ein multiples Regressionsmodell, bei dem Y auf LAG (Y, 1), LAG (Y, 2) usw. bis zu LAG (Y, k) regressiert wird. So können Sie durch die bloße Inspektion des PACF bestimmen, wie viele AR-Begriffe Sie verwenden müssen, um das Autokorrelationsmuster in einer Zeitreihe zu erklären: Wenn die partielle Autokorrelation bei der Verzögerung k und bei signifikanter Verzögerung nicht signifikant ist, d. h. Wenn die PACF-Quoten bei der Verzögerung k abschneiden - dann schlägt das vor, dass man ein autoregressives Bestellmodell anpassen sollte. Der PACF der UNITS-Serie bietet ein extremes Beispiel für das Cut-off-Phänomen: Es hat eine sehr große Spike bei lag 1 Und keine anderen signifikanten Spikes, was darauf hinweist, dass in Abwesenheit der Differenzierung ein AR (1) - Modell verwendet werden sollte. Allerdings wird sich der AR (1) - Dext in diesem Modell als gleichbedeutend mit einer ersten Differenz erweisen, da der geschätzte AR (1) - Koeffizient (der die Höhe des PACF-Spikes bei Verzögerung 1 ist) fast genau gleich 1 ist Nun ist die Prognosegleichung für ein AR (1) - Modell für eine Reihe Y ohne Ordnungen der Differenzierung: Ist der AR (1) - Koeffizient 981 1 in dieser Gleichung gleich 1, so ist es gleichbedeutend mit der Vorhersage, dass die erste Differenz Von Y ist konstant - dh Es ist gleichbedeutend mit der Gleichung des zufälligen Spaziergangsmodells mit dem Wachstum: Die PACF der UNITS-Serie sagt uns, dass, wenn wir es nicht unterscheiden, dann ein AR (1) - Modell passen, das sich als gleichwertig erweisen wird Ein erster unterschied Mit anderen Worten, es sagt uns, dass UNITS wirklich eine Reihenfolge der Differenzierung benötigt, um stationär zu sein. AR - und MA-Signaturen: Wenn der PACF einen scharfen Cutoff zeigt, während der ACF langsamer abfällt (dh signifikante Spikes bei höheren Verzögerungen hat), so sagen wir, dass die stationäre Serie eine signifikante Signatur anzeigt, was bedeutet, dass das Autokorrelationsmuster leichter erklärt werden kann Durch Hinzufügen von AR-Terme als durch Hinzufügen von MA-Terme. Sie werden wahrscheinlich feststellen, dass eine AR-Signatur häufig mit einer positiven Autokorrelation bei Verzögerung 1 - d. h. Es neigt dazu, in Serie, die leicht unter differenziert sind. Der Grund dafür ist, dass ein AR-Term in der Prognosegleichung wie ein quadratischer Unterschied stehen kann. Zum Beispiel handelt es in einem AR (1) - Modell der AR-Term wie ein erster Unterschied, wenn der autoregressive Koeffizient gleich 1 ist, tut es nichts, wenn der autoregressive Koeffizient null ist, und er wirkt wie eine partielle Differenz, wenn der Koeffizient zwischen ist 0 und 1. Wenn also die Serie etwas unterdifferenziert ist - also Wenn das nichtstationäre Muster der positiven Autokorrelation nicht vollständig beseitigt ist, wird es eine Teildifferenz fordern, indem man eine AR-Signatur anzeigt. Daher haben wir die folgende Faustregel für die Bestimmung, wann man AR-Terme hinzufügen soll: Regel 6: Wenn die PACF der differenzierten Reihe einen scharfen Cutoff zeigt und die Lag-1-Autokorrelation positiv ist - i. e. Wenn die Serie erscheint etwas andersdifferencedquot - dann erwägen Hinzufügen eines AR-Begriffs auf das Modell. Die Verzögerung, bei der die PACF abschneidet, ist die angegebene Anzahl von AR-Terme. Grundsätzlich kann jedes Autokorrelationsmuster aus einer stationärisierten Reihe entfernt werden, indem man genügend autoregressive Begriffe (Verzögerungen der stationären Serie) der Prognosegleichung hinzufügt und die PACF sagt, wie viele solche Begriffe wahrscheinlich benötigt werden. Allerdings ist dies nicht immer der einfachste Weg, um ein gegebenes Muster der Autokorrelation zu erklären: Manchmal ist es effizienter, MA-Terme (Verzögerungen der Prognosefehler) stattdessen hinzuzufügen. Die Autokorrelationsfunktion (ACF) spielt bei MA-Terme die gleiche Rolle, dass der PACF für AR-Terme spielt - das heißt, der ACF sagt Ihnen, wie viele MA-Begriffe wahrscheinlich benötigt werden, um die verbleibende Autokorrelation aus der differenzierten Serie zu entfernen. Wenn die Autokorrelation bei Verzögerung k ist, aber nicht bei höheren Verzögerungen - d. h. Wenn die ACF-Quoten bei Verzögerung k abschneiden - bedeutet dies, dass genau k MA-Begriffe in der Prognosegleichung verwendet werden sollen. Im letzteren Fall sagen wir, dass die stationäre Serie eine signifikante Signatur anzeigt, was bedeutet, dass das Autokorrelationsmuster leichter durch Hinzufügen von MA-Terme erklärt werden kann, als durch Hinzufügen von AR-Terme. Eine MA-Signatur ist gewöhnlich mit einer negativen Autokorrelation bei Verzögerung 1 - d. h. Es neigt dazu, in Serie zu kommen, die etwas überdimensioniert sind. Der Grund hierfür ist, dass ein MA-Term die Reihenfolge der Differenzierung in der Prognosegleichung punktuell aufheben kann. Um dies zu sehen, ist zu erinnern, dass ein ARIMA (0,1,1) Modell ohne Konstante einem Simple Exponential Smoothing Model entspricht. Die Prognosegleichung für dieses Modell ist dort, wo der MA (1) Koeffizient 952 1 der Menge 1 - 945 im SES-Modell entspricht. Wenn 952 1 gleich 1 ist, entspricht dies einem SES-Modell mit 945 0, was nur ein CONSTANT-Modell ist, weil die Prognose niemals aktualisiert wird. Dies bedeutet, dass, wenn 952 1 gleich 1 ist, tatsächlich die differenzierende Operation auslöscht, die normalerweise die SES-Prognose erlaubt, sich bei der letzten Beobachtung wieder zu verankern. Wenn andererseits der gleitendurchschnittliche Koeffizient gleich 0 ist, reduziert sich dieses Modell auf ein zufälliges Wandermodell - d. h. Es verlässt den differenzierenden Betrieb allein. Also, wenn 952 1 etwas größer als 0 ist, ist es so, als ob wir teilweise eine Reihenfolge der Differenzierung annullieren. Wenn die Serie schon etwas überdimensioniert ist - d. h. Wenn eine negative Autokorrelation eingeführt wurde - dann wird es einen Forcot einen Unterschied abgeben, der teilweise durch die Anzeige einer MA-Signatur abgebrochen wird. (Eine Menge von Armwellen geht hier weiter Eine strengere Erklärung dieses Effektes findet sich in der mathematischen Struktur von ARIMA Models Handzettel.) Daher die folgende zusätzliche Faustregel: Regel 7: Wenn die ACF der differenzierten Serie a zeigt Scharfe Abschaltung und die Lag-1-Autokorrelation ist negativ Wenn die Serie erscheint etwas quittiertdifferencedquot - dann erwägen Hinzufügen einer MA-Begriff zum Modell. Die Verzögerung, bei der der ACF abschaltet, ist die angegebene Anzahl von MA-Terme. Ein Modell für die UNITS-Serie - ARIMA (2,1,0): Bisher haben wir festgestellt, dass die UNITS-Serie (mindestens) eine Reihenfolge der Nichtseason-Differenzierung benötigt, um stationär zu sein. Nach der Einnahme einer nicht-seasonalen Differenz - d. h. Anpassung eines ARIMA (0,1,0) - Modells mit konstanten - die ACF - und PACF-Plots sehen so aus: Beachten Sie, dass (a) die Korrelation bei lag 1 signifikant und positiv ist und (b) die PACF einen schärferen Quotenausschnitt hat als Der ACF. Insbesondere hat die PACF nur zwei signifikante Spikes, während die ACF vier hat. So zeigt die differenzierte Reihe nach Regel 7 eine AR (2) Signatur. Wenn wir also die Reihenfolge des AR-Termes auf 2 setzen - d. h. Passen ein ARIMA (2,1,0) Modell - wir erhalten die folgenden ACF - und PACF-Plots für die Residuen: Die Autokorrelation bei den entscheidenden Verzögerungen - nämlich Verzögerungen 1 und 2 - wurde eliminiert und es gibt kein erkennbares Muster In höherer Ordnung. Die Zeitreihenpläne der Residuen zeigen eine etwas beunruhigende Tendenz, vom Mittelwert weg zu wandern: Allerdings zeigt der Analysezusammenfassungsbericht, dass das Modell dennoch in der Validierungsperiode sehr gut abläuft, beide AR-Koeffizienten unterscheiden sich deutlich von Null und dem Standard Die Abweichung der Residuen wurde von 1.54371 auf 1.4215 (fast 10) durch die Addition der AR-Terme reduziert. Darüber hinaus gibt es keine Anzeichen für eine Quotenwurzel, weil die Summe der AR-Koeffizienten (0,2522540.195572) nicht nahe bei 1 liegt. (Einheitswurzeln werden im Folgenden näher erläutert.) Im Großen und Ganzen scheint dies ein gutes Modell zu sein . Die (untransformierten) Prognosen für das Modell zeigen einen linearen Aufwärtstrend, der in die Zukunft projiziert wird: Der Trend in den Langzeitprognosen ist auf die Tatsache zurückzuführen, dass das Modell einen Nichtseasonaldifferenz und einen konstanten Begriff beinhaltet: Dieses Modell ist grundsätzlich ein zufälliger Spaziergang mit Wachstum durch die Addition von zwei autoregressiven Begriffen - d. h. Zwei Verzögerungen der differenzierten Serie. Die Steigung der Langzeitprognosen (d. h. der durchschnittliche Anstieg von einer Periode zur anderen) entspricht dem Mittelwert in der Modellübersicht (0.467566). Die Prognosegleichung lautet: wobei 956 der konstante Term in der Modellzusammenfassung (0.258178), 981 1 der AR (1) - Koeffizient (0,25224) und 981 2 der AR (2) - Koeffizient (0.195572) ist. Mittlerweile gegen Konstante: Im Allgemeinen bezieht sich der Quatenzausdruck in der Ausgabe eines ARIMA-Modells auf den Mittelwert der differenzierten Reihe (dh der durchschnittliche Trend, wenn die Reihenfolge der Differenzierung gleich 1 ist), während die Quantenkonstante der konstante Term ist Auf der rechten Seite der Prognosegleichung. Die mittlere und konstante Begriffe beziehen sich auf die Gleichung: CONSTANT MEAN (1 minus die Summe der AR-Koeffizienten). In diesem Fall haben wir 0,258178 0.467566 (1 - 0.25224 - 0.195572) Alternatives Modell für die UNITS-Serie - ARIMA (0,2,1): Erinnern wir uns, dass wir bei der Analyse der UNITS-Serie nicht ganz sicher waren Korrekte Reihenfolge der Differenzierung zu verwenden. Eine Reihenfolge der Nicht-Seasonal-Differenzierung ergab die niedrigste Standardabweichung (und ein Muster der milden positiven Autokorrelation), während zwei Ordnungen von nicht-seasonal differencing eine stationärere Zeitreihenfolge (aber mit ziemlich starker negativer Autokorrelation) ergaben. Hier sind sowohl die ACF als auch die PACF der Serie mit zwei Nichtseasonalunterschieden: Die einzelne negative Spike bei Verzögerung 1 im ACF ist eine MA (1) Signatur gemäß Regel 8 oben. Wenn wir also 2 nichtseasonale Unterschiede verwenden würden, wären wir auch einen MA (1) Begriff, der ein ARIMA (0,2,1) Modell liefert. Nach Regel 5 wollen wir auch den konstanten Begriff unterdrücken. Hier sind also die Ergebnisse der Anpassung eines ARIMA (0,2,1) Modells ohne Konstante: Beachten Sie, dass die geschätzte Weißrauschen-Standardabweichung (RMSE) für dieses Modell nur sehr geringfügig höher ist als die vorherige (1.46301 hier gegenüber 1.45215 vorher). Die Prognosegleichung für dieses Modell lautet: wobei theta-1 der MA (1) Koeffizient ist. Es sei daran erinnert, dass dies einem Linear-Exponential-Glättungsmodell ähnlich ist, wobei der MA (1) - Koeffizient der Größe 2 (1-alpha) im LES-Modell entspricht. Der MA (1) - Koeffizient von 0,76 in diesem Modell deutet darauf hin, dass ein LES-Modell mit Alpha in der Nähe von 0,72 genau gleich gut passen würde. Tatsächlich, wenn ein LES-Modell an die gleichen Daten angepasst ist, erweist sich der optimale Wert von alpha auf etwa 0,61, was nicht zu weit weg ist. Hier ist ein Modellvergleichsbericht, der die Ergebnisse der Montage des ARIMA (2,1,0) Modells mit konstantem ARIMA (0,2,1) Modell ohne Konstante und das LES Modell zeigt: Die drei Modelle verlaufen nahezu identisch Die Schätzperiode und das ARIMA (2,1,0) - Modell mit konstantem erscheint etwas besser als die beiden anderen in der Validierungsperiode. Auf der Grundlage dieser statistischen Ergebnisse allein wäre es schwer, unter den drei Modellen zu wählen. Wenn wir jedoch die langfristigen Prognosen des ARIMA-Modells (0,2,1) ohne Konstante (die im Wesentlichen die gleichen sind wie die des LES-Modells) darstellen, sehen wir einen signifikanten Unterschied zu denen des früheren Modells: Die Prognosen haben etwas weniger Aufwärtstrend als die des früheren Modells - denn der lokale Trend nahe dem Ende der Serie ist etwas geringer als der durchschnittliche Trend über die ganze Serie - aber die Konfidenzintervalle sind viel schneller gewachsen. Das Modell mit zwei Ordnungen von differencing geht davon aus, dass der Trend in der Serie zeitabhängig ist, daher betrachtet er die ferne Zukunft viel ungewisser als das Modell mit nur einer Reihenfolge der Differenzierung. Welches Modell sollten wir wählen Das hängt von den Annahmen ab, die wir in Bezug auf die Konstanz des Trendes in den Daten bequem machen. Das Modell mit nur einer Reihenfolge der Differenzierung nimmt einen konstanten durchschnittlichen Trend an - es handelt sich im Wesentlichen um ein fein abgestimmtes zufälliges Wandermodell mit Wachstum - und macht daher relativ konservative Trendprojektionen. Es ist auch ziemlich optimistisch über die Genauigkeit, mit der es mehr als eine Periode vorhersagen kann. Das Modell mit zwei Ordnungen von differencing nimmt einen zeitveränderlichen lokalen Trend an - es handelt sich im Wesentlichen um ein lineares exponentielles Glättungsmodell - und seine Trendprojektionen sind etwas stärker. Als allgemeine Regel in dieser Art von Situation, würde ich empfehlen, die Wahl des Modells mit der niedrigeren Reihenfolge der Differenzierung, andere Dinge sind etwa gleich. In der Praxis scheinen zufällige Spaziergänge oder einfach-exponentiell-glättende Modelle oft besser zu funktionieren als lineare exponentielle Glättungsmodelle. Gemischte Modelle: In den meisten Fällen stellt sich das beste Modell heraus, das ein Modell verwendet, das entweder nur AR-Begriffe oder nur MA-Begriffe verwendet, obwohl in einigen Fällen ein quotmixedquot-Modell mit sowohl AR - als auch MA-Terminen die besten Anpassungen an die Daten liefern kann. Bei der Montage von Mischmodellen ist jedoch Vorsicht geboten. Es ist möglich, dass ein AR-Term und ein MA-Term alle anderen Effekte aufheben. Obwohl beide im Modell signifikant erscheinen können (wie durch die t-Statistik ihrer Koeffizienten beurteilt). So sei z. B. angenommen, dass das quotcorrectquot Modell für eine Zeitreihe ein ARIMA (0,1,1) Modell ist, sondern stattdessen ein ARIMA (1,1,2) Modell - d. h. Sie beinhalten einen weiteren AR-Term und einen weiteren MA-Termin. Dann können die zusätzlichen Begriffe am Ende im Modell deutlich erscheinen, aber intern können sie nur gegeneinander arbeiten. Die resultierenden Parameterschätzungen können zweideutig sein, und der Parameterabschätzprozess kann sehr viele (z. B. mehr als 10) Iterationen durchführen, um zu konvergieren. Folglich: Regel 8: Es ist möglich, dass ein AR-Term und ein MA-Term alle anderen Effekte aufheben, also wenn ein gemischtes AR-MA-Modell an die Daten anzupassen scheint, probier auch ein Modell mit einem weniger AR-Term und einem weniger MA-Term - besonders wenn die Parameterschätzungen im Originalmodell mehr als 10 Iterationen konvergieren müssen. Aus diesem Grund können ARIMA-Modelle nicht durch einen rückwärts schrittweisen Ansatz identifiziert werden, der sowohl AR - als auch MA-Terme enthält. Mit anderen Worten, Sie können nicht beginnen, indem Sie mehrere Begriffe jeder Art und dann werfen diejenigen, deren geschätzte Koeffizienten sind nicht signifikant. Stattdessen folgen Sie normalerweise einem vorwärts schrittweisen Ansatz, indem Sie Begriffe der einen oder anderen Art hinzufügen, wie durch das Aussehen der ACF - und PACF-Plots angezeigt. Einheitswurzeln: Wenn eine Serie grob unter - oder überdifferenziert ist - d. h. Wenn eine ganze Reihenfolge der Differenzierung hinzugefügt oder abgebrochen werden muss, wird dies oft durch ein Quoten-Rootquot in den geschätzten AR - oder MA-Koeffizienten des Modells signalisiert. Ein AR (1) - Modell soll eine Einheitswurzel haben, wenn der geschätzte AR (1) - Koeffizient fast genau gleich 1 ist. (Von quotexactly gleichem, ich meine wirklich nicht signifikant anders als in den Koeffizienten eigenen Standardfehler. ) Wenn dies geschieht, bedeutet dies, dass der AR (1) Begriff genau einen ersten Unterschied nachahmt, in welchem ​​Fall Sie den AR (1) Begriff entfernen und stattdessen eine Reihenfolge der Differenzierung hinzufügen sollten. (Das ist genau das, was passieren würde, wenn man ein AR (1) - Modell auf die undifferenzierte UNITS-Serie montiert hat, wie bereits erwähnt.) In einem übergeordneten AR-Modell existiert eine Einheitswurzel im AR-Teil des Modells, wenn die Summe von Die AR-Koeffizienten ist genau gleich 1. In diesem Fall sollten Sie die Reihenfolge des AR-Termes um 1 reduzieren und eine Reihenfolge der Differenzierung hinzufügen. Eine Zeitreihe mit einer Einheitswurzel in den AR-Koeffizienten ist nicht stationär - i. e. Es braucht eine höhere Ordnung der Differenzierung. Regel 9: Wenn es eine Einheitswurzel im AR-Teil des Modells gibt - d. h. Wenn die Summe der AR-Koeffizienten fast genau 1 ist, sollten Sie die Anzahl der AR-Terme um eins reduzieren und die Reihenfolge der Differenzierung um eins erhöhen. Ähnlich soll ein MA (1) - Modell eine Einheitswurzel haben, wenn der geschätzte MA (1) - Koeffizient genau gleich 1 ist. Wenn dies geschieht, bedeutet dies, dass der MA (1) - Test genau einen ersten Unterschied annulliert In diesem Fall solltest du den MA (1) Begriff entfernen und auch die Reihenfolge der Differenzierung um eins reduzieren. In einem übergeordneten MA-Modell existiert eine Einheitswurzel, wenn die Summe der MA-Koeffizienten genau gleich 1 ist. Regel 10: Wenn es eine Einheitswurzel im MA-Teil des Modells gibt - d. h. Wenn die Summe der MA-Koeffizienten fast genau 1 ist, sollten Sie die Anzahl der MA-Terme um eins reduzieren und die Reihenfolge der Differenzierung um eins reduzieren. Wenn Sie zum Beispiel ein lineares exponentielles Glättungsmodell (ein ARIMA (0,2,2) Modell passen), wenn ein einfaches exponentielles Glättungsmodell (ein ARIMA (0,1,1) Modell) ausreichend wäre, können Sie das finden Die Summe der beiden MA-Koeffizienten ist fast gleich gleich 1. Durch die Verringerung der MA-Ordnung und die Reihenfolge der Differenzierung um jeweils eine erhalten Sie das passendere SES-Modell. Ein Prognosemodell mit einer Einheitswurzel in den geschätzten MA-Koeffizienten wird als nichtinvertierbar bezeichnet. Dass die Residuen des Modells nicht als Schätzungen des quottruequot-zufälligen Rauschens betrachtet werden können, das die Zeitreihen erzeugt hat. Ein weiteres Symptom einer Einheitswurzel ist, dass die Prognosen des Modells quadrieren oder sich anders verhalten können. Wenn die Zeitreihenfolge der längerfristigen Prognosen des Modells seltsam aussieht, sollten Sie die geschätzten Koeffizienten Ihres Modells auf das Vorhandensein einer Einheitswurzel überprüfen. Regel 11: Wenn die Langzeitprognosen unregelmäßig oder instabil erscheinen, kann es zu einem Einheitswurzel in den AR - oder MA-Koeffizienten kommen. Keines dieser Probleme entstand bei den beiden hier gezeigten Modellen, denn wir waren vorsichtig mit plausiblen Ordnungen der Differenzierung und einer angemessenen Anzahl von AR - und MA-Koeffizienten durch das Studium der ACF - und PACF-Modelle zu beginnen. Detaillierte Diskussionen über Wurzeln und Streichungseffekte zwischen AR und MA finden Sie in der mathematischen Struktur von ARIMA Models handout. ARMA, ARMA Acf - Pacf Visualisierungen Wie im vorherigen Beitrag erwähnt. Ich habe mit Autoregressiven und Moving Average Simulationen gearbeitet. Um die Korrektheit der Schätzungen durch unsere Simulationen zu testen, verwenden wir acf (Autokorrelation) und pacf (partielle Autokorrelation) zu unserem Gebrauch. Für verschiedene Ordnungen von AR und MA erhalten wir die variierenden Visualisierungen mit ihnen, wie: Exponential abnehmende Kurven. Gedämpfte Sinuswellen. Positive und negative Spikes, etc. Während der Analyse und das Schreiben von Tests für das gleiche, habe ich auch einige Zeit, um diese Daten auf ilne und Balkendiagramme zu visualisieren, um ein klareres Bild zu bekommen: AR (1) Prozess AR (1) Prozess ist die autoregressive Simulation mit Ordnung p 1, dh mit einem Wert von phi. Idealer AR (p) Prozess wird dargestellt durch: Um dies zu simulieren, installieren Sie hier Statsample-Zeiten. Für AR (p) muss acf eine dämpfende Sinuswelle geben. Das Muster hängt stark vom Wert und dem Zeichen der phi-Parameter ab. Wenn positiver Inhalt in Phi-Koeffizienten mehr ist, bekommst du eine Sinuswelle, die von der positiven Seite ausgeht, sonst wird die Sinuswelle von der negativen Seite ausgehen. Beachten Sie, dass die Dämpfungs-Sinuswelle von der positiven Seite hier ausgeht und hier die negative Seite. Pacf gibt Spike bei Verzögerung 0 (Wert 1.0, Voreinstellung) und von Verzögerung 1 bis Verzögerung k. Das Beispiel oben, verfügt über AR (2) Prozess, dafür müssen wir Spikes bei Verzögerung 1 - 2 als: MA (1) Prozess MA (1) Prozess ist die gleitende durchschnittliche Simulation mit Ordnung q 1. dh mit einem Wert Von theta Um dies zu simulieren, verwenden Sie masim Methode von Statsample :: ARIMA :: ARIMA MA (q) Prozess ARMA (p, q) Prozess ARMA (p, q) ist die Kombination von autoregressiven und gleitenden durchschnittlichen Simulationen. Wenn q 0. Der Prozeß wird als reiner autoregressiver Prozeß bezeichnet, wenn p 0. Der Prozeß ist rein gleitender Durchschnitt. Der simulator von ARMA kann als armasim in Statsample :: ARIMA :: ARIMA gefunden werden. Für ARMA (1, 1) Prozess, hier sind die Vergleiche der Visualisierungen von R und dieser Code, der gerade meinen Tag gemacht hat :) Cheers, - Ankur Goel Geschrieben von Ankur Goel Jul 20th. 2013 Aktuelle Beiträge GitHub Repos2.1 Moving Average Models (MA Modelle) Zeitreihenmodelle, die als ARIMA-Modelle bekannt sind, können autoregressive Begriffe und bewegte durchschnittliche Begriffe enthalten. In Woche 1 lernten wir einen autoregressiven Begriff in einem Zeitreihenmodell für die Variable x t ist ein verzögerter Wert von x t. Zum Beispiel ist ein lag 1 autoregressiver Term x t-1 (multipliziert mit einem Koeffizienten). Diese Lektion definiert gleitende durchschnittliche Begriffe. Ein gleitender Durchschnittsterm in einem Zeitreihenmodell ist ein vergangener Fehler (multipliziert mit einem Koeffizienten). Lassen Sie (nt N (0, sigma2w)), was bedeutet, dass die wt identisch, unabhängig verteilt sind, jeweils mit einer Normalverteilung mit dem Mittelwert 0 und der gleichen Varianz. Das mit MA (1) bezeichnete 1-stufige gleitende Durchschnittsmodell ist (xt mu wt theta1w) Das durchschnittliche Modell der 2. Ordnung, das mit MA (2) bezeichnet wird, ist (xt mu wt theta1w theta2w) , Bezeichnet mit MA (q) ist (xt mu wt theta1w theta2w dots thetaqw) Hinweis. Viele Lehrbücher und Softwareprogramme definieren das Modell mit negativen Vorzeichen vor den Bedingungen. Dies ändert nicht die allgemeinen theoretischen Eigenschaften des Modells, obwohl es die algebraischen Zeichen der geschätzten Koeffizientenwerte und (unsquared) Terme in Formeln für ACFs und Abweichungen klappt. Sie müssen Ihre Software überprüfen, um zu überprüfen, ob negative oder positive Zeichen verwendet wurden, um das geschätzte Modell korrekt zu schreiben. R verwendet positive Zeichen in seinem zugrunde liegenden Modell, wie wir hier tun. Theoretische Eigenschaften einer Zeitreihe mit einem MA (1) Modell Beachten Sie, dass der einzige Wert ungleich Null im theoretischen ACF für Verzögerung 1 ist. Alle anderen Autokorrelationen sind 0. Somit ist ein Beispiel ACF mit einer signifikanten Autokorrelation nur bei Verzögerung 1 ein Indikator für ein mögliches MA (1) Modell. Für interessierte Schüler sind die Beweise dieser Eigenschaften ein Anhang zu diesem Handzettel. Beispiel 1 Angenommen, ein MA (1) - Modell ist x t 10 wt .7 w t-1. Wo (wt Overset N (0,1)). So ist der Koeffizient 1 0,7. Die theoretische ACF ist gegeben durch eine Handlung dieses ACF folgt. Die gerade dargestellte Handlung ist die theoretische ACF für eine MA (1) mit 1 0,7. In der Praxis wird eine Probe gewöhnlich ein solches klares Muster liefern. Unter Verwendung von R simulierten wir n 100 Abtastwerte unter Verwendung des Modells x t 10 w t .7 w t-1, wobei w t iid N (0,1). Für diese Simulation folgt eine Zeitreihenfolge der Stichprobendaten. Wir können nicht viel von dieser Handlung erzählen. Die Stichprobe ACF für die simulierten Daten folgt. Wir sehen eine Spike bei Verzögerung 1, gefolgt von allgemein nicht signifikanten Werten für die Vergangenheit 1. Beachten Sie, dass die Stichprobe ACF nicht mit dem theoretischen Muster des zugrundeliegenden MA (1) übereinstimmt, was bedeutet, dass alle Autokorrelationen für Verzögerungen nach 1 0 sind Eine andere Probe hätte eine etwas andere Probe ACF, die unten gezeigt wird, würde aber wahrscheinlich die gleichen breiten Merkmale haben. Theroretische Eigenschaften einer Zeitreihe mit einem MA (2) Modell Für das MA (2) Modell sind die theoretischen Eigenschaften die folgenden: Beachten Sie, dass die einzigen Werte ungleich Null im theoretischen ACF für die Verzögerungen 1 und 2 sind. Autokorrelationen für höhere Verzögerungen sind 0 So gibt ein Beispiel ACF mit signifikanten Autokorrelationen bei den Verzögerungen 1 und 2, aber nicht signifikante Autokorrelationen für höhere Verzögerungen ein mögliches MA (2) - Modell an. Iid N (0,1). Die Koeffizienten sind 1 0,5 und 2 0,3. Da es sich hierbei um ein MA (2) handelt, hat die theoretische ACF nur Nullwerte nur bei den Verzögerungen 1 und 2. Werte der beiden Nicht-Null-Autokorrelationen sind eine Auftragung der theoretischen ACF folgt. Wie fast immer der Fall ist, verhalten sich die Probendaten nicht ganz so perfekt wie die Theorie. Wir simulierten n 150 Probenwerte für das Modell x t 10 w t .5 w t-1 .3 w t-2. Wo w t iid N (0,1). Die Zeitreihenfolge der Daten folgt. Wie bei der Zeitreihen-Plot für die MA (1) Beispieldaten können Sie nicht viel davon erzählen. Die Stichprobe ACF für die simulierten Daten folgt. Das Muster ist typisch für Situationen, in denen ein MA (2) Modell nützlich sein kann. Es gibt zwei statistisch signifikante Spikes bei den Verzögerungen 1 und 2, gefolgt von nicht signifikanten Werten für andere Verzögerungen. Beachten Sie, dass die Stichprobe ACF aufgrund des Stichprobenfehlers nicht genau mit dem theoretischen Muster übereinstimmt. ACF für allgemeine MA (q) Modelle Eine Eigenschaft von MA (q) - Modellen im Allgemeinen ist, dass es für die ersten q-Verzögerungen und Autokorrelationen 0 für alle Verzögerungen gt q ungleichen Autokorrelationen gibt. Nicht-Eindeutigkeit der Verbindung zwischen den Werten von 1 und (rho1) in MA (1) Modell. Im MA (1) Modell, für jeden Wert von 1. Die reziproke 1 1 gibt den gleichen Wert für Als Beispiel, verwenden Sie 0,5 für 1. Und dann 1 (0,5) 2 für 1 verwenden. Youll bekommen (rho1) 0,4 in beiden Fällen. Um eine theoretische Einschränkung zu erfüllen, die Invertierbarkeit genannt wird. Wir beschränken die MA (1) - Modelle auf Werte mit einem absoluten Wert kleiner als 1. In dem gerade angegebenen Beispiel ist 1 0,5 ein zulässiger Parameterwert, wohingegen 1 10,5 2 nicht. Invertierbarkeit von MA-Modellen Ein MA-Modell soll invertierbar sein, wenn es algebraisch äquivalent zu einem konvergierenden unendlichen Ordnungs-AR-Modell ist. Durch konvergieren, verstehen wir, dass die AR-Koeffizienten auf 0 abnehmen, wenn wir uns in der Zeit zurückziehen. Invertierbarkeit ist eine Beschränkung, die in die Zeitreihen-Software programmiert ist, die verwendet wird, um die Koeffizienten von Modellen mit MA-Terme abzuschätzen. Es ist nicht etwas, das wir in der Datenanalyse überprüfen. Zusätzliche Informationen über die Invertierbarkeitsbeschränkung für MA (1) Modelle finden Sie im Anhang. Fortgeschrittene Theorie Hinweis. Für ein MA (q) Modell mit einem bestimmten ACF gibt es nur ein invertierbares Modell. Die notwendige Bedingung für die Invertierbarkeit ist, daß die Koeffizienten Werte haben, so daß die Gleichung 1- 1 y - ist. - q y q 0 hat Lösungen für y, die außerhalb des Einheitskreises liegen. R-Code für die Beispiele In Beispiel 1 haben wir die theoretische ACF des Modells x t 10 w t aufgetragen. 7w t-1 Und dann simuliert n 150 Werte aus diesem Modell und plotted die Probe Zeitreihen und die Probe ACF für die simulierten Daten. Die R-Befehle, die verwendet wurden, um das theoretische ACF zu zeichnen, waren: acfma1ARMAacf (mac (0,7), lag. max10) 10 Verzögerungen von ACF für MA (1) mit theta1 0,7 lags0: 10 erzeugt eine Variable namens Lags, die von 0 bis 10 reicht (1) mit theta1 0,7) abline (h0) fügt eine horizontale Achse zum Plot hinzu Der erste Befehl bestimmt den ACF und speichert ihn in einem Objekt Benannte acfma1 (unsere auswahl des namens). Der Plotbefehl (der 3. Befehl) zeichnet sich gegen die ACF-Werte für die Verzögerungen 1 bis 10 aus. Der ylab-Parameter markiert die y-Achse und der Hauptparameter setzt einen Titel auf den Plot. Um die numerischen Werte des ACF zu sehen, benutzen Sie einfach den Befehl acfma1. Die Simulation und die Plots wurden mit den folgenden Befehlen durchgeführt. Xcarima. sim (n150, list (mac (0.7))) simuliert n 150 Werte aus MA (1) xxc10 fügt 10 hinzu, um Mittel zu machen 10. Simulation standardmäßig 0. plot (x, typeb, mainSimulated MA (1) data) Acf (x, xlimc (1,10), mainACF für simulierte Probendaten) In Beispiel 2 wurden die theoretischen ACF des Modells xt 10 Gew .-% w t-1 .3 w t-2 aufgetragen. Und dann simuliert n 150 Werte aus diesem Modell und plotted die Probe Zeitreihen und die Probe ACF für die simulierten Daten. Die verwendeten R-Befehle waren acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 plot (Verzögerungen, acfma2, xlimc (1,10), ylabr, typeh, Haupt-ACF für MA (2) mit theta1 0,5, Thex20.3) abline (h0) xcarima. sim (n150, list (mac (0.5, 0.3))) xxc10 plot (x, typeb, main simulierte MA (2) Serie) acf (x, xlimc (1,10), MainACF für simulierte MA (2) Daten) Anhang: Nachweis der Eigenschaften von MA (1) Für interessierte Studierende sind hier Beispiele für theoretische Eigenschaften des MA (1) Modells. Abweichung: (Text (xt) Text (mu wt theta1 w) 0 Text (wt) Text (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Wenn h 1, der vorherige Ausdruck 1 w 2. Für irgendwelche h 2 ist der vorherige Ausdruck 0 Der Grund dafür ist, dass durch die Definition der Unabhängigkeit der Gew. E (w k w j) 0 für jedes k j Da ferner wt den Mittelwert 0, E (w j w j) E (w j 2) w 2 hat. Für eine Zeitreihe, Wenden Sie dieses Ergebnis an, um das oben angegebene ACF zu erhalten. Ein invertierbares MA-Modell ist eines, das als ein unendliches Ordnungs-AR-Modell geschrieben werden kann, das konvergiert, so dass die AR-Koeffizienten zu 0 konvergieren, wenn wir uns unendlich zurück in der Zeit bewegen. Nun zeigen Sie die Invertierbarkeit für das Modell MA (1). Dann ersetzen wir die Beziehung (2) für w t-1 in Gleichung (1) (3) (zt wt theta1 (z - θaw) wt theta1z - θ2w) Zur Zeit t-2. Gleichung (2) wird wir dann die Beziehung (4) für wt-2 in Gleichung (3) (zt wt theta1z-tha21w wt theta1z - tha21 (z-tha1w) wt theta1z - θ12z theta31w) Wenn wir fortfahren würden ( infinitely), we would get the infinite order AR model (zt wt theta1 z - theta21z theta31z - theta41z dots ) Note however, that if 1 1, the coefficients multiplying the lags of z will increase (infinitely) in size as we move back in time. To prevent this, we need 1 lt1. This is the condition for an invertible MA(1) model. Infinite Order MA model In week 3, well see that an AR(1) model can be converted to an infinite order MA model: (xt - mu wt phi1w phi21w dots phik1 w dots sum phij1w ) This summation of past white noise terms is known as the causal representation of an AR(1). In other words, x t is a special type of MA with an infinite number of terms going back in time. This is called an infinite order MA or MA(). A finite order MA is an infinite order AR and any finite order AR is an infinite order MA. Recall in Week 1, we noted that a requirement for a stationary AR(1) is that 1 lt1. Lets calculate the Var( x t ) using the causal representation. This last step uses a basic fact about geometric series that requires (phi1lt1) otherwise the series diverges. NavigationTime Series analysis tsa statsmodels. tsa contains model classes and functions that are useful for time series analysis. This currently includes univariate autoregressive models (AR), vector autoregressive models (VAR) and univariate autoregressive moving average models (ARMA). It also includes descriptive statistics for time series, for example autocorrelation, partial autocorrelation function and periodogram, as well as the corresponding theoretical properties of ARMA or related processes. It also includes methods to work with autoregressive and moving average lag-polynomials. Additionally, related statistical tests and some useful helper functions are available. Estimation is either done by exact or conditional Maximum Likelihood or conditional least-squares, either using Kalman Filter or direct filters. Currently, functions and classes have to be imported from the corresponding module, but the main classes will be made available in the statsmodels. tsa namespace. The module structure is within statsmodels. tsa is stattools. empirical properties and tests, acf, pacf, granger-causality, adf unit root test, ljung-box test and others. armodel. univariate autoregressive process, estimation with conditional and exact maximum likelihood and conditional least-squares arimamodel. univariate ARMA process, estimation with conditional and exact maximum likelihood and conditional least-squares vectorar, var. vector autoregressive process (VAR) estimation models, impulse response analysis, forecast error variance decompositions, and data visualization tools kalmanf. estimation classes for ARMA and other models with exact MLE using Kalman Filter armaprocess. properties of arma processes with given parameters, this includes tools to convert between ARMA, MA and AR representation as well as acf, pacf, spectral density, impulse response function and similar sandbox. tsa. fftarma. similar to armaprocess but working in frequency domain tsatools. additional helper functions, to create arrays of lagged variables, construct regressors for trend, detrend and similar. filters. helper function for filtering time series Some additional functions that are also useful for time series analysis are in other parts of statsmodels, for example additional statistical tests. Some related functions are also available in matplotlib, nitime, and scikits. talkbox. Those functions are designed more for the use in signal processing where longer time series are available and work more often in the frequency domain. Descriptive Statistics and Tests stattools. acovf (x, unbiased, demean, fft)

No comments:

Post a Comment