8.3 Autoregressive Modelle In einem multiplen Regressionsmodell prognostizieren wir die Variable von Interesse mit einer linearen Kombination von Prädiktoren. In einem Autoregressionsmodell prognostizieren wir die Variable von Interesse mit einer linearen Kombination von vergangenen Werten der Variablen. Der Begriff auto regression zeigt an, dass es sich um eine Regression der Variablen gegen sich selbst handelt. So kann ein autoregressives Modell der Ordnung p geschrieben werden, wo c eine Konstante ist und et ist weißes Rauschen. Dies ist wie eine multiple Regression, aber mit verzögerten Werten von yt als Prädiktoren. Wir bezeichnen dies als AR (p) Modell. Autoregressive Modelle sind bemerkenswert flexibel bei der Handhabung einer Vielzahl von verschiedenen Zeitreihenmuster. Die beiden Serien in Abbildung 8.5 zeigen Serien aus einem AR (1) Modell und einem AR (2) Modell. Das Ändern der Parameter phi1, dots, phip ergibt sich in verschiedenen Zeitreihenmustern. Die Varianz des Fehlerterms und wird nur die Skala der Serie ändern, nicht die Muster. Abbildung 8.5: Zwei Beispiele von Daten aus autoregressiven Modellen mit unterschiedlichen Parametern. Links: AR (1) mit yt 18 -0.8y et. Rechts: AR (2) mit yt 8 1.3y -0.7y et. In beiden Fällen ist et normal verteilt weißes Rauschen mit mittlerem Null und Varianz eins. Für ein AR (1) Modell: Wenn phi10, yt entspricht weißes Rauschen. Wenn phi11 und c0, yt gleichbedeutend mit einem zufälligen Spaziergang ist. Wenn phi11 und cne0, yt ist gleichbedeutend mit einem zufälligen Spaziergang mit Drift Wenn phi1lt0, yt neigt dazu, zwischen positiven und negativen Werten oszillieren. Normalerweise beschränken wir autoregressive Modelle auf stationäre Daten, und dann sind einige Einschränkungen für die Werte der Parameter erforderlich. Für ein AR (1) Modell: -1 lt phi1 lt 1. Für ein AR (2) Modell: -1 lt phi2 lt 1, phi1phi2 lt 1, phi2-phi1 lt 1. Wenn pge3 die Einschränkungen viel komplizierter sind. R kümmert sich um diese Einschränkungen bei der Schätzung eines Modells.2.1 Moving Average Models (MA Modelle) Zeitreihenmodelle, die als ARIMA-Modelle bekannt sind, können autoregressive Begriffe und gleitende durchschnittliche Begriffe enthalten. In Woche 1 lernten wir einen autoregressiven Begriff in einem Zeitreihenmodell für die Variable x t ist ein verzögerter Wert von x t. Zum Beispiel ist ein lag 1 autoregressiver Term x t-1 (multipliziert mit einem Koeffizienten). Diese Lektion definiert gleitende durchschnittliche Begriffe. Ein gleitender Durchschnittsterm in einem Zeitreihenmodell ist ein vergangener Fehler (multipliziert mit einem Koeffizienten). Lassen Sie (nt N (0, sigma2w)), was bedeutet, dass die wt identisch, unabhängig verteilt sind, jeweils mit einer Normalverteilung mit dem Mittelwert 0 und der gleichen Varianz. Das mit MA (1) bezeichnete 1-stufige gleitende Durchschnittsmodell ist (xt mu wt theta1w) Das durchschnittliche Modell der 2. Ordnung, das mit MA (2) bezeichnet wird, ist (xt mu wt theta1w theta2w) , Bezeichnet mit MA (q) ist (xt mu wt theta1w theta2w dots thetaqw) Hinweis. Viele Lehrbücher und Softwareprogramme definieren das Modell mit negativen Vorzeichen vor den Bedingungen. Dies ändert nicht die allgemeinen theoretischen Eigenschaften des Modells, obwohl es die algebraischen Zeichen der geschätzten Koeffizientenwerte und (unsquared) Terme in Formeln für ACFs und Abweichungen klappt. Sie müssen Ihre Software überprüfen, um zu überprüfen, ob negative oder positive Zeichen verwendet wurden, um das geschätzte Modell korrekt zu schreiben. R verwendet positive Zeichen in seinem zugrunde liegenden Modell, wie wir hier tun. Theoretische Eigenschaften einer Zeitreihe mit einem MA (1) Modell Beachten Sie, dass der einzige Wert ungleich Null im theoretischen ACF für Verzögerung 1 ist. Alle anderen Autokorrelationen sind 0. Somit ist ein Beispiel ACF mit einer signifikanten Autokorrelation nur bei Verzögerung 1 ein Indikator für ein mögliches MA (1) Modell. Für interessierte Schüler sind die Beweise dieser Eigenschaften ein Anhang zu diesem Handzettel. Beispiel 1 Angenommen, ein MA (1) - Modell ist x t 10 wt .7 w t-1. Wo (wt Overset N (0,1)). So ist der Koeffizient 1 0,7. Die theoretische ACF ist gegeben durch eine Handlung dieses ACF folgt. Die gerade dargestellte Handlung ist die theoretische ACF für eine MA (1) mit 1 0,7. In der Praxis wird eine Probe gewöhnlich ein solches klares Muster liefern. Unter Verwendung von R simulierten wir n 100 Abtastwerte unter Verwendung des Modells x t 10 w t .7 w t-1, wobei w t iid N (0,1). Für diese Simulation folgt eine Zeitreihenfolge der Stichprobendaten. Wir können nicht viel von dieser Handlung erzählen. Die Stichprobe ACF für die simulierten Daten folgt. Wir sehen eine Spike bei Verzögerung 1, gefolgt von allgemein nicht signifikanten Werten für die Vergangenheit 1. Beachten Sie, dass die Stichprobe ACF nicht mit dem theoretischen Muster des zugrundeliegenden MA (1) übereinstimmt, was bedeutet, dass alle Autokorrelationen für Verzögerungen nach 1 0 sind Eine andere Probe hätte eine etwas andere Probe ACF, die unten gezeigt wird, würde aber wahrscheinlich die gleichen breiten Merkmale haben. Theroretische Eigenschaften einer Zeitreihe mit einem MA (2) Modell Für das MA (2) Modell sind die theoretischen Eigenschaften die folgenden: Beachten Sie, dass die einzigen Werte ungleich Null im theoretischen ACF für die Verzögerungen 1 und 2 sind. Autokorrelationen für höhere Verzögerungen sind 0 So gibt ein Beispiel ACF mit signifikanten Autokorrelationen bei den Verzögerungen 1 und 2, aber nicht signifikante Autokorrelationen für höhere Verzögerungen ein mögliches MA (2) - Modell an. Iid N (0,1). Die Koeffizienten sind 1 0,5 und 2 0,3. Da es sich hierbei um ein MA (2) handelt, hat die theoretische ACF nur Nullwerte nur bei den Verzögerungen 1 und 2. Werte der beiden Nicht-Null-Autokorrelationen sind eine Auftragung der theoretischen ACF folgt. Wie fast immer der Fall ist, verhalten sich die Probendaten nicht ganz so perfekt wie die Theorie. Wir simulierten n 150 Probenwerte für das Modell x t 10 w t .5 w t-1 .3 w t-2. Wo w t iid N (0,1). Die Zeitreihenfolge der Daten folgt. Wie bei der Zeitreihen-Plot für die MA (1) Beispieldaten können Sie nicht viel davon erzählen. Die Stichprobe ACF für die simulierten Daten folgt. Das Muster ist typisch für Situationen, in denen ein MA (2) Modell nützlich sein kann. Es gibt zwei statistisch signifikante Spikes bei den Verzögerungen 1 und 2, gefolgt von nicht signifikanten Werten für andere Verzögerungen. Beachten Sie, dass die Stichprobe ACF aufgrund des Stichprobenfehlers nicht genau mit dem theoretischen Muster übereinstimmt. ACF für allgemeine MA (q) Modelle Eine Eigenschaft von MA (q) - Modellen im Allgemeinen ist, dass es für die ersten q-Verzögerungen und Autokorrelationen 0 für alle Verzögerungen gt q ungleichen Autokorrelationen gibt. Nicht-Eindeutigkeit der Verbindung zwischen den Werten von 1 und (rho1) in MA (1) Modell. Im MA (1) Modell, für jeden Wert von 1. Die reziproke 1 1 gibt den gleichen Wert für Als Beispiel, verwenden Sie 0,5 für 1. Und dann 1 (0,5) 2 für 1 verwenden. Youll bekommen (rho1) 0,4 in beiden Fällen. Um eine theoretische Einschränkung zu erfüllen, die Invertierbarkeit genannt wird. Wir beschränken die MA (1) - Modelle auf Werte mit einem absoluten Wert kleiner als 1. In dem gerade angegebenen Beispiel ist 1 0,5 ein zulässiger Parameterwert, wohingegen 1 10,5 2 nicht. Invertierbarkeit von MA-Modellen Ein MA-Modell soll invertierbar sein, wenn es algebraisch äquivalent zu einem konvergierenden unendlichen Ordnungs-AR-Modell ist. Durch konvergieren, verstehen wir, dass die AR-Koeffizienten auf 0 abnehmen, wenn wir uns in der Zeit zurückziehen. Invertierbarkeit ist eine Beschränkung, die in die Zeitreihen-Software programmiert ist, die verwendet wird, um die Koeffizienten von Modellen mit MA-Terme abzuschätzen. Es ist nicht etwas, das wir in der Datenanalyse überprüfen. Zusätzliche Informationen über die Invertierbarkeitsbeschränkung für MA (1) Modelle finden Sie im Anhang. Fortgeschrittene Theorie Hinweis. Für ein MA (q) Modell mit einem bestimmten ACF gibt es nur ein invertierbares Modell. Die notwendige Bedingung für die Invertierbarkeit ist, daß die Koeffizienten Werte haben, so daß die Gleichung 1- 1 y - ist. - q y q 0 hat Lösungen für y, die außerhalb des Einheitskreises liegen. R-Code für die Beispiele In Beispiel 1 haben wir die theoretische ACF des Modells x t 10 w t aufgetragen. 7w t-1 Und dann simuliert n 150 Werte aus diesem Modell und plotted die Probe Zeitreihen und die Probe ACF für die simulierten Daten. Die R-Befehle, die verwendet wurden, um das theoretische ACF zu zeichnen, waren: acfma1ARMAacf (mac (0,7), lag. max10) 10 Verzögerungen von ACF für MA (1) mit theta1 0,7 lags0: 10 erzeugt eine Variable namens Lags, die von 0 bis 10 reicht (1) mit theta1 0,7) abline (h0) fügt eine horizontale Achse zum Plot hinzu Der erste Befehl bestimmt den ACF und speichert ihn in einem Objekt Benannte acfma1 (unsere auswahl des namens). Der Plotbefehl (der 3. Befehl) zeichnet sich gegen die ACF-Werte für die Verzögerungen 1 bis 10 aus. Der ylab-Parameter markiert die y-Achse und der Hauptparameter setzt einen Titel auf den Plot. Um die numerischen Werte des ACF zu sehen, benutzen Sie einfach den Befehl acfma1. Die Simulation und die Plots wurden mit den folgenden Befehlen durchgeführt. Xcarima. sim (n150, list (mac (0.7))) simuliert n 150 Werte aus MA (1) xxc10 fügt 10 hinzu, um Mittel zu machen 10. Simulation standardmäßig 0. plot (x, typeb, mainSimulated MA (1) data) Acf (x, xlimc (1,10), mainACF für simulierte Probendaten) In Beispiel 2 wurden die theoretischen ACF des Modells xt 10 Gew .-% w t-1 .3 w t-2 aufgetragen. Und dann simuliert n 150 Werte aus diesem Modell und plotted die Probe Zeitreihen und die Probe ACF für die simulierten Daten. Die verwendeten R-Befehle waren acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 plot (Verzögerungen, acfma2, xlimc (1,10), ylabr, typeh, Haupt-ACF für MA (2) mit theta1 0,5, Thex20.3) abline (h0) xcarima. sim (n150, list (mac (0.5, 0.3))) xxc10 plot (x, typeb, main simulierte MA (2) Serie) acf (x, xlimc (1,10), MainACF für simulierte MA (2) Daten) Anhang: Nachweis der Eigenschaften von MA (1) Für interessierte Studierende sind hier Beispiele für theoretische Eigenschaften des MA (1) Modells. Abweichung: (Text (xt) Text (mu wt theta1 w) 0 Text (wt) Text (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Wenn h 1, der vorherige Ausdruck 1 w 2. Für irgendwelche h 2 ist der vorherige Ausdruck 0 Der Grund dafür ist, dass durch die Definition der Unabhängigkeit der Gew. E (w k w j) 0 für jedes k j Da ferner wt den Mittelwert 0, E (w j w j) E (w j 2) w 2 hat. Für eine Zeitreihe, Wenden Sie dieses Ergebnis an, um das oben angegebene ACF zu erhalten. Ein invertierbares MA-Modell ist eines, das als ein unendliches Ordnungs-AR-Modell geschrieben werden kann, das konvergiert, so dass die AR-Koeffizienten zu 0 konvergieren, wenn wir uns unendlich zurück in der Zeit bewegen. Nun zeigen Sie die Invertierbarkeit für das Modell MA (1). Dann ersetzen wir die Beziehung (2) für w t-1 in Gleichung (1) (3) (zt wt theta1 (z - θaw) wt theta1z - θ2w) Zur Zeit t-2. Gleichung (2) wird wir dann die Beziehung (4) für wt-2 in Gleichung (3) (zt wt theta1z-tha21w wt theta1z - tha21 (z-tha1w) wt theta1z - θ12z theta31w) Wenn wir fortfahren würden ( Unendlich), würden wir die unendliche Ordnung AR-Modell erhalten (zt wt theta1 z - theta21z theta31z - theta41z Punkte) Beachten Sie jedoch, dass bei 1 1 die Koeffizienten, die die Verzögerungen von z multiplizieren, in der Größe zunehmen wird (unendlich), wenn wir uns zurück bewegen Zeit. Um dies zu verhindern, brauchen wir 1 lt1. Dies ist die Voraussetzung für ein invertierbares MA (1) Modell. Infinite Order MA Modell In Woche 3 sehen wir, dass ein AR (1) Modell in eine unendliche Reihenfolge umgewandelt werden kann MA Modell: (xt-mu wt phi1w phi21w punkte phik1 w Punkte Summe phij1w) Diese Summierung von vergangenen weißen Rauschen ist bekannt Als die kausale Darstellung eines AR (1). Mit anderen Worten, x t ist eine spezielle Art von MA mit einer unendlichen Anzahl von Begriffen, die in der Zeit zurückgehen. Dies wird als unendliche Ordnung MA oder MA () bezeichnet. Eine endliche Ordnung MA ist eine unendliche Ordnung AR und jede endliche Ordnung AR ist eine unendliche Ordnung MA. Rückruf in Woche 1, stellten wir fest, dass eine Voraussetzung für eine stationäre AR (1) ist, dass 1 lt1. Lets berechnen die Var (x t) mit der Kausaldarstellung. Dieser letzte Schritt verwendet eine grundlegende Tatsache über geometrische Reihen, die (Phi1lt1) ansonsten die Reihe divergiert. NavigationAutoregressive Moving-Average Simulation (First Order) Die Demonstration ist so eingestellt, dass die gleiche zufällige Reihe von Punkten verwendet wird, egal wie die Konstanten und variiert sind. Wenn jedoch die Taste quotrandomizequot gedrückt wird, wird eine neue Zufallsreihe erzeugt und verwendet. Wenn man die zufällige Serie identifiziert, kann der Benutzer genau die Effekte auf die ARMA-Reihe von Änderungen in den beiden Konstanten sehen. Die Konstante ist auf (-1,1) begrenzt, da sich die Divergenz der ARMA-Serie ergibt. Die Demonstration ist nur für einen ersten Auftrag. Zusätzliche AR-Begriffe würden es ermöglichen, komplexere Serien zu erzeugen, während zusätzliche MA-Begriffe die Glättung erhöhen würden. Für eine detaillierte Beschreibung der ARMA-Prozesse siehe z. B. G. Box, G. M. Jenkins und G. Reinsel, Zeitreihenanalyse: Prognose und Kontrolle. 3. Aufl. Englewood Cliffs, NJ: Prentice-Hall, 1994. RELATED LINKSARMA Unplugged Dies ist der erste Eintrag in unserer Serie von Unplugged Tutorials, in dem wir uns in die Details der einzelnen Zeitreihenmodelle eintauchen, mit denen Sie bereits vertraut sind und den Basiswert hervorheben Annahmen und die Heimat der Intuitionen hinter ihnen. In dieser Ausgabe begegnen wir dem ARMA-Modell einen Eckpfeiler in der Zeitreihenmodellierung. Im Gegensatz zu früheren Analysenproblemen werden wir hier mit der ARMA-Prozessdefinition beginnen, die Inputs, Outputs, Parameter, Stabilitätsbeschränkungen, Annahmen ausgeben und schließlich einige Richtlinien für den Modellierungsprozess zeichnen. Hintergrund Nach Definition ist der auto-regressive gleitende Durchschnitt (ARMA) ein stationärer stochastischer Prozess, der aus Summen von autoregressivem Excel besteht und gleitende Durchschnittskomponenten bewegt. Alternativ, in einer einfachen Formulierung: Annahmen Lets Blick näher an die Formulierung. Der ARMA-Prozess ist einfach eine gewichtete Summe der bisherigen Output-Beobachtungen und Schocks mit wenigen Schlüsselannahmen: Was bedeuten diese Annahmen Ein stochastischer Prozess ist ein Gegenstück zu einem deterministischen Prozess, das die Evolution einer zufälligen Variablen über die Zeit beschreibt. In unserem Fall ist die Zufallsvariable Der ARMA-Prozess erfasst nur die serielle Korrelation (d. H. Autokorrelation) zwischen den Beobachtungen. In klaren Worten fasst der ARMA-Prozess die Werte der vergangenen Beobachtungen zusammen, nicht ihre quadratischen Werte oder deren Logarithmen usw. Die Abhängigkeit der höheren Ordnung erfordert einen anderen Prozess (z. B. ARCHGARCH, nichtlineare Modelle usw.). Es gibt zahlreiche Beispiele für einen stochastischen Prozess, bei dem vergangene Werte die aktuellen beeinflussen. Zum Beispiel in einem Verkaufsbüro, das laufende Ausschreibungen erhält, werden einige als verkaufsgewonnen, einige als verkäufe verloren, und ein paar verschüttet in den nächsten Monat. Als Ergebnis, in einem bestimmten Monat, einige der Verkäufe gewonnene Fälle entstehen als Anfragen oder sind Wiederholungsverkäufe von den vorhergehenden Monaten. Was sind die Schocks, Innovationen oder Fehler Begriffe Dies ist eine schwierige Frage, und die Antwort ist nicht weniger verwirrend. Dennoch können wir es ausprobieren: In einfachen Worten ist der Fehler in einem gegebenen Modell ein Fang aller Eimer für alle Variationen, die das Modell nicht erklärt. Noch verloren Lets verwenden ein Beispiel. Für einen Aktienkurs-Prozess gibt es möglicherweise Hunderte von Faktoren, die das Preisniveau aktualisieren, einschließlich: Dividenden und Split Ankündigungen Quarterly Ertragsberichte Merger und Akquisition (MampA) Aktivitäten Juristische Veranstaltungen, z. B. Die drohende Klageklage. Andere Ein Modell, durch Design, ist eine Vereinfachung einer komplexen Realität, also was auch immer wir außerhalb des Modells verlassen, wird automatisch im Fehlerbegriff gebündelt. Der ARMA-Prozess geht davon aus, dass die kollektive Wirkung all dieser Faktoren mehr oder weniger wie Gaußschen Lärm wirkt. Warum kümmern wir uns um vergangene Schocks. Anders als ein Regressionsmodell kann das Auftreten eines Stimulus (z. B. Schock) eine Auswirkung auf das aktuelle Niveau und möglicherweise zukünftige Ebenen haben. Zum Beispiel beeinflusst ein Unternehmensereignis (z. B. MampA-Aktivität) den Underling-Unternehmen Aktienkurs, aber die Änderung kann einige Zeit dauern, um seine volle Wirkung zu haben, da die Marktteilnehmer die verfügbaren Informationen analysieren und entsprechend reagieren. Das ist die Frage: Dont die Vergangenheit Werte der Ausgabe haben bereits die Schocks Vergangenheit Informationen JA, die Schocks Geschichte ist bereits in der Vergangenheit Ausgangswerte berücksichtigt. Ein ARMA-Modell kann nur als reines auto-regressives (AR) Modell dargestellt werden, aber der Speicherbedarf eines solchen Systems in unendlich. Dies ist der einzige Grund, die MA-Komponente einzuschließen: um die Lagerung zu speichern und die Formulierung zu vereinfachen. Auch hier muss der ARMA-Prozess stationär sein, damit die marginale (bedingungslose) Varianz existiert. Anmerkung: In meiner obigen Diskussion unterscheide ich nicht nur die Abwesenheit einer Einheitswurzel in der charakteristischen Gleichung und der Stationarität des Prozesses. Sie sind verwandt, aber das Fehlen einer Einheitswurzel ist keine Garantie für die Stationarität. Dennoch muss die Einheitswurzel im Inneren des Einheitskreises liegen, um genau zu sein. Schlussfolgerung Lass uns das wiederherstellen, was wir bisher gemacht haben. Zuerst untersuchten wir einen stationären ARMA-Prozess, zusammen mit seinen Formulierungen, Inputs, Annahmen und Speicheranforderungen. Als nächstes haben wir gezeigt, dass ein ARMA-Prozess seine Ausgangswerte (Autokorrelation) und Stöße, die er früher in der aktuellen Ausgabe erlebt hat, beinhaltet. Schließlich haben wir gezeigt, dass der stationäre ARMA-Prozess eine Zeitreihe mit einem stabilen Langzeit-Mittel und Varianz erzeugt. In unserer Datenanalyse sollten wir, bevor wir ein ARMA-Modell vorschlagen, die Stationaritätsannahme und den endlichen Speicherbedarf überprüfen. Für den Fall, dass die Datenreihe einen deterministischen Trend aufweist, müssen wir sie zuerst entfernen (de-trend) und dann die Reste für ARMA verwenden. In dem Fall, dass der Datensatz einen stochastischen Trend (z. B. zufälliger Spaziergang) oder Saisonalität aufweist, müssen wir ARIMASARIMA unterhalten. Schließlich kann das Korrelogramm (d. h. ACFPACF) verwendet werden, um den Speicherbedarf des Modells zu messen, und wir sollten erwarten, dass entweder ACF oder PACF schnell nach einigen Verzögerungen abklingen. Wenn nicht, kann dies ein Zeichen der Nicht-Stationarität oder eines Langzeitmusters sein (z. B. ARFIMA).
No comments:
Post a Comment