Sunday 9 July 2017

First Order Moving Average Modell


2.1 Verschieben von durchschnittlichen Modellen (MA-Modelle) Zeitreihenmodelle, die als ARIMA-Modelle bekannt sind, können autoregressive Begriffe und gleitende durchschnittliche Ausdrücke enthalten. In Woche 1 lernten wir einen autoregressiven Begriff in einem Zeitreihenmodell für die Variable x t ist ein verzögerter Wert von x t. Zum Beispiel ist ein lag 1 autoregressiver Term x t-1 (multipliziert mit einem Koeffizienten). Diese Lektion definiert gleitende durchschnittliche Begriffe. Ein gleitender Durchschnittsterm in einem Zeitreihenmodell ist ein vergangener Fehler (multipliziert mit einem Koeffizienten). Lassen Sie (nt N (0, sigma2w)), was bedeutet, dass die wt identisch, unabhängig verteilt sind, jeweils mit einer Normalverteilung mit dem Mittelwert 0 und der gleichen Varianz. Das mit MA (1) bezeichnete 1-stufige gleitende Durchschnittsmodell ist (xt mu wt theta1w) Das durchschnittliche Modell der 2. Ordnung, das mit MA (2) bezeichnet wird, ist (xt mu wt theta1w theta2w) , Bezeichnet mit MA (q) ist (xt mu wt theta1w theta2w dots thetaqw) Hinweis. Viele Lehrbücher und Softwareprogramme definieren das Modell mit negativen Vorzeichen vor den Begriffen. Dies ändert nicht die allgemeinen theoretischen Eigenschaften des Modells, obwohl es die algebraischen Zeichen der geschätzten Koeffizientenwerte und (unsquared) Terme in Formeln für ACFs und Abweichungen klappt. Sie müssen Ihre Software überprüfen, um zu überprüfen, ob negative oder positive Zeichen verwendet wurden, um das geschätzte Modell korrekt zu schreiben. R verwendet positive Zeichen in seinem zugrunde liegenden Modell, wie wir hier tun. Theoretische Eigenschaften einer Zeitreihe mit einem MA (1) Modell Beachten Sie, dass der einzige Wert ungleich Null im theoretischen ACF für Verzögerung 1 ist. Alle anderen Autokorrelationen sind 0. Somit ist ein Beispiel ACF mit einer signifikanten Autokorrelation nur bei Verzögerung 1 ein Indikator für ein mögliches MA (1) Modell. Für interessierte Schüler sind die Beweise dieser Eigenschaften ein Anhang zu diesem Handzettel. Beispiel 1 Angenommen, ein MA (1) - Modell ist x t 10 wt .7 w t-1. Wo (wt Overset N (0,1)). So ist der Koeffizient 1 0,7. Die theoretische ACF ist gegeben durch eine Handlung dieses ACF folgt. Die gerade dargestellte Handlung ist die theoretische ACF für eine MA (1) mit 1 0,7. In der Praxis wird eine Probe gewöhnlich ein solches klares Muster liefern. Unter Verwendung von R simulierten wir n 100 Abtastwerte unter Verwendung des Modells x t 10 w t .7 w t-1, wobei w t iid N (0,1). Für diese Simulation folgt eine Zeitreihenfolge der Stichprobendaten. Wir können nicht viel von dieser Handlung erzählen. Die Stichprobe ACF für die simulierten Daten folgt. Wir sehen eine Spike bei Verzögerung 1, gefolgt von allgemein nicht signifikanten Werten für die Vergangenheit 1. Beachten Sie, dass die Stichprobe ACF nicht mit dem theoretischen Muster des zugrundeliegenden MA (1) übereinstimmt, was bedeutet, dass alle Autokorrelationen für Verzögerungen nach 1 0 sind Eine andere Probe hätte eine etwas andere Probe ACF, die unten gezeigt wird, würde aber wahrscheinlich die gleichen breiten Merkmale haben. Theroretische Eigenschaften einer Zeitreihe mit einem MA (2) Modell Für das MA (2) Modell sind die theoretischen Eigenschaften die folgenden: Beachten Sie, dass die einzigen Werte ungleich Null im theoretischen ACF für die Verzögerungen 1 und 2 sind. Autokorrelationen für höhere Verzögerungen sind 0 So gibt ein Beispiel ACF mit signifikanten Autokorrelationen bei den Verzögerungen 1 und 2, aber nicht signifikante Autokorrelationen für höhere Verzögerungen ein mögliches MA (2) - Modell an. Iid N (0,1). Die Koeffizienten sind 1 0,5 und 2 0,3. Da es sich hierbei um ein MA (2) handelt, hat die theoretische ACF nur Nullwerte nur bei den Verzögerungen 1 und 2. Werte der beiden Nicht-Null-Autokorrelationen sind eine Auftragung der theoretischen ACF folgt. Wie fast immer der Fall ist, verhalten sich die Probendaten nicht ganz so perfekt wie die Theorie. Wir simulierten n 150 Probenwerte für das Modell x t 10 w t .5 w t-1 .3 w t-2. Wo w t iid N (0,1). Die Zeitreihenfolge der Daten folgt. Wie bei der Zeitreihen-Plot für die MA (1) Beispieldaten können Sie nicht viel davon erzählen. Die Stichprobe ACF für die simulierten Daten folgt. Das Muster ist typisch für Situationen, in denen ein MA (2) Modell nützlich sein kann. Es gibt zwei statistisch signifikante Spikes bei den Verzögerungen 1 und 2, gefolgt von nicht signifikanten Werten für andere Verzögerungen. Beachten Sie, dass die Stichprobe ACF aufgrund des Stichprobenfehlers nicht genau mit dem theoretischen Muster übereinstimmt. ACF für allgemeine MA (q) Modelle Eine Eigenschaft von MA (q) - Modellen im Allgemeinen ist, dass es für die ersten q-Verzögerungen und Autokorrelationen 0 für alle Verzögerungen gt q ungleichen Autokorrelationen gibt. Nicht-Eindeutigkeit der Verbindung zwischen den Werten von 1 und (rho1) in MA (1) Modell. Im MA (1) Modell, für jeden Wert von 1. Die reziproke 1 1 gibt den gleichen Wert für Als Beispiel, verwenden Sie 0,5 für 1. Und dann 1 (0,5) 2 für 1 verwenden. Youll bekommen (rho1) 0,4 in beiden Fällen. Um eine theoretische Einschränkung zu erfüllen, die Invertierbarkeit genannt wird. Wir beschränken die MA (1) - Modelle auf Werte mit einem absoluten Wert kleiner als 1. In dem gerade angegebenen Beispiel ist 1 0,5 ein zulässiger Parameterwert, wohingegen 1 10,5 2 nicht. Invertierbarkeit von MA-Modellen Ein MA-Modell soll invertierbar sein, wenn es algebraisch äquivalent zu einem konvergierenden unendlichen Ordnungs-AR-Modell ist. Durch konvergieren, verstehen wir, dass die AR-Koeffizienten auf 0 abnehmen, wenn wir uns in der Zeit zurückziehen. Invertierbarkeit ist eine Beschränkung, die in die Zeitreihen-Software programmiert ist, die verwendet wird, um die Koeffizienten von Modellen mit MA-Terme abzuschätzen. Es ist nicht etwas, das wir in der Datenanalyse überprüfen. Zusätzliche Informationen über die Invertierbarkeitsbeschränkung für MA (1) Modelle finden Sie im Anhang. Fortgeschrittene Theorie Hinweis. Für ein MA (q) Modell mit einem bestimmten ACF gibt es nur ein invertierbares Modell. Die notwendige Bedingung für die Invertierbarkeit ist, daß die Koeffizienten Werte haben, so daß die Gleichung 1- 1 y - ist. - q y q 0 hat Lösungen für y, die außerhalb des Einheitskreises liegen. R-Code für die Beispiele In Beispiel 1 haben wir die theoretische ACF des Modells x t 10 w t aufgetragen. 7w t-1 Und dann simuliert n 150 Werte aus diesem Modell und plotted die Probe Zeitreihen und die Probe ACF für die simulierten Daten. Die R-Befehle, die verwendet wurden, um das theoretische ACF zu zeichnen, waren: acfma1ARMAacf (mac (0,7), lag. max10) 10 Verzögerungen von ACF für MA (1) mit theta1 0,7 lags0: 10 erzeugt eine Variable namens Lags, die von 0 bis 10 reicht (1) mit theta1 0,7) abline (h0) fügt eine horizontale Achse zum Plot hinzu Der erste Befehl bestimmt den ACF und speichert ihn in einem Objekt Benannte acfma1 (unsere auswahl des namens). Der Plotbefehl (der 3. Befehl) zeichnet sich gegen die ACF-Werte für die Verzögerungen 1 bis 10 aus. Der ylab-Parameter markiert die y-Achse und der Hauptparameter setzt einen Titel auf den Plot. Um die numerischen Werte des ACF zu sehen, benutzen Sie einfach den Befehl acfma1. Die Simulation und die Plots wurden mit den folgenden Befehlen durchgeführt. Xcarima. sim (n150, list (mac (0.7))) simuliert n 150 Werte aus MA (1) xxc10 fügt 10 hinzu, um Mittel zu machen 10. Simulation standardmäßig 0. plot (x, typeb, mainSimulated MA (1) data) Acf (x, xlimc (1,10), mainACF für simulierte Probendaten) In Beispiel 2 wurden die theoretischen ACF des Modells xt 10 Gew .-% w t-1 .3 w t-2 aufgetragen. Und dann simuliert n 150 Werte aus diesem Modell und plotted die Probe Zeitreihen und die Probe ACF für die simulierten Daten. Die verwendeten R-Befehle waren acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 plot (Verzögerungen, acfma2, xlimc (1,10), ylabr, typeh, Haupt-ACF für MA (2) mit theta1 0,5, Thex20.3) abline (h0) xcarima. sim (n150, list (mac (0.5, 0.3))) xxc10 plot (x, typeb, main simulierte MA (2) Serie) acf (x, xlimc (1,10), MainACF für simulierte MA (2) Daten) Anhang: Nachweis der Eigenschaften von MA (1) Für interessierte Studierende sind hier Beispiele für theoretische Eigenschaften des MA (1) Modells. Abweichung: (Text (xt) Text (mu wt theta1 w) 0 Text (wt) Text (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Wenn h 1, der vorherige Ausdruck 1 w 2. Für irgendwelche h 2 ist der vorherige Ausdruck 0 Der Grund dafür ist, dass durch die Definition der Unabhängigkeit der Gew. E (w k w j) 0 für jedes k j Da ferner wt den Mittelwert 0, E (w j w j) E (w j 2) w 2 hat. Für eine Zeitreihe, Wenden Sie dieses Ergebnis an, um das oben angegebene ACF zu erhalten. Ein invertierbares MA-Modell ist eines, das als ein unendliches Ordnungs-AR-Modell geschrieben werden kann, das konvergiert, so dass die AR-Koeffizienten zu 0 konvergieren, wenn wir uns unendlich zurück in der Zeit bewegen. Nun zeigen Sie die Invertierbarkeit für das Modell MA (1). Dann ersetzen wir die Beziehung (2) für w t-1 in Gleichung (1) (3) (zt wt theta1 (z - θaw) wt theta1z - θ2w) Zur Zeit t-2. Gleichung (2) wird wir dann die Beziehung (4) für wt-2 in Gleichung (3) (zt wt theta1z-tha21w wt theta1z - tha21 (z-tha1w) wt theta1z - θ12z theta31w) Wenn wir fortfahren würden ( Unendlich), würden wir die unendliche Ordnung AR-Modell erhalten (zt wt theta1 z - theta21z theta31z - theta41z Punkte) Beachten Sie jedoch, dass bei 1 1 die Koeffizienten, die die Verzögerungen von z multiplizieren, in der Größe zunehmen wird (unendlich), wenn wir uns zurück bewegen Zeit. Um dies zu verhindern, brauchen wir 1 lt1. Dies ist die Voraussetzung für ein invertierbares MA (1) Modell. Infinite Order MA Modell In Woche 3 sehen wir, dass ein AR (1) Modell in eine unendliche Reihenfolge umgewandelt werden kann MA Modell: (xt-mu wt phi1w phi21w punkte phik1 w Punkte Summe phij1w) Diese Summierung von vergangenen weißen Rauschen ist bekannt Als die kausale Darstellung eines AR (1). Mit anderen Worten, x t ist eine spezielle Art von MA mit einer unendlichen Anzahl von Begriffen, die in der Zeit zurückgehen. Dies wird als unendliche Ordnung MA oder MA () bezeichnet. Eine endliche Ordnung MA ist eine unendliche Ordnung AR und jede endliche Ordnung AR ist eine unendliche Ordnung MA. Rückruf in Woche 1, stellten wir fest, dass eine Voraussetzung für eine stationäre AR (1) ist, dass 1 lt1. Lets berechnen die Var (x t) mit der Kausaldarstellung. Dieser letzte Schritt verwendet eine grundlegende Tatsache über geometrische Reihen, die (Phi1lt1) ansonsten die Reihe divergiert. NavigationAutoregressive Moving-Average Simulation (First Order) Die Demonstration ist so eingestellt, dass die gleiche zufällige Reihe von Punkten verwendet wird, egal wie die Konstanten und variiert sind. Wenn jedoch die Taste quotrandomizequot gedrückt wird, wird eine neue Zufallsreihe erzeugt und verwendet. Wenn man die zufällige Serie identifiziert, kann der Benutzer genau die Effekte auf die ARMA-Reihe von Änderungen in den beiden Konstanten sehen. Die Konstante ist auf (-1,1) begrenzt, da sich die Divergenz der ARMA-Serie ergibt. Die Demonstration ist nur für einen ersten Auftrag. Zusätzliche AR-Begriffe würden es ermöglichen, komplexere Serien zu erzeugen, während zusätzliche MA-Begriffe die Glättung erhöhen würden. Für eine detaillierte Beschreibung der ARMA-Prozesse siehe z. B. G. Box, G. M. Jenkins und G. Reinsel, Zeitreihenanalyse: Prognose und Kontrolle. 3. Aufl. Englewood Cliffs, NJ: Prentice-Hall, 1994. RELATED LINKSAutoregressive Moving-Average-Fehlerprozesse (ARMA-Fehler) und andere Modelle, die Verzögerungen von Fehlerbegriffen beinhalten, können mit Hilfe von FIT-Anweisungen geschätzt und mit SOLVE-Anweisungen simuliert oder prognostiziert werden. ARMA-Modelle für den Fehlerprozess werden häufig für Modelle mit autokorrelierten Resten verwendet. Das AR-Makro kann verwendet werden, um Modelle mit autoregressiven Fehlerprozessen festzulegen. Das MA-Makro kann verwendet werden, um Modelle mit gleitenden durchschnittlichen Fehlerprozessen zu spezifizieren. Autoregressive Fehler Ein Modell mit Autoregressivfehlern erster Ordnung, AR (1), hat die Form, während ein AR (2) Fehlerprozess die Form und so weiter für höherwertige Prozesse hat. Beachten Sie, dass die s unabhängig und identisch verteilt sind und einen erwarteten Wert von 0 haben. Ein Beispiel für ein Modell mit einer AR (2) - Komponente ist und so weiter für höherwertige Prozesse. Zum Beispiel können Sie ein einfaches lineares Regressionsmodell mit MA (2) gleitenden Durchschnittsfehlern schreiben, da MA1 und MA2 die gleitenden Durchschnittsparameter sind. Beachten Sie, dass RESID. Y automatisch von PROC MODEL definiert wird. Die ZLAG-Funktion muss für MA-Modelle verwendet werden, um die Rekursion der Verzögerungen abzuschneiden. Damit wird sichergestellt, dass die verzögerten Fehler in der Lag-Priming-Phase bei Null beginnen und bei fehlenden Fehlern keine fehlenden Werte ausbreiten, und es stellt sicher, dass die zukünftigen Fehler null sind, anstatt während der Simulation oder Prognose zu fehlen. Einzelheiten zu den Lag-Funktionen finden Sie im Abschnitt Lag Logic. Dieses Modell, das mit dem MA-Makro geschrieben wurde, lautet wie folgt: Allgemeines Formular für ARMA-Modelle Das allgemeine ARMA (p, q) - Verfahren hat folgendes Formular Ein ARMA (p, q) - Modell kann wie folgt angegeben werden: wobei AR i und MA j repräsentieren Die autoregressiven und gleitenden Durchschnittsparameter für die verschiedenen Verzögerungen. Sie können alle Namen, die Sie für diese Variablen wollen, und es gibt viele gleichwertige Möglichkeiten, dass die Spezifikation geschrieben werden könnte. Vektor-ARMA-Prozesse können auch mit PROC MODEL geschätzt werden. Beispielsweise kann ein zwei-variables AR (1) - Verfahren für die Fehler der beiden endogenen Variablen Y1 und Y2 wie folgt spezifiziert werden: Konvergenzprobleme mit ARMA-Modellen ARMA-Modelle können schwer abzuschätzen sein. Wenn die Parameterschätzungen nicht innerhalb des entsprechenden Bereichs liegen, wachsen ein gleitender Durchschnittsrestbestand exponentiell. Die berechneten Residuen für spätere Beobachtungen können sehr groß sein oder überlaufen. Dies kann entweder geschehen, weil falsche Startwerte verwendet wurden oder weil die Iterationen von vernünftigen Werten entfernt wurden. Bei der Auswahl von Startwerten für ARMA-Parameter sollte die Pflege verwendet werden. Startwerte von 0,001 für ARMA-Parameter funktionieren in der Regel, wenn das Modell die Daten gut passt und das Problem gut konditioniert ist. Beachten Sie, dass ein MA-Modell oft durch ein höheres AR-Modell angenähert werden kann und umgekehrt. Dies kann zu einer hohen Kollinearität in gemischten ARMA-Modellen führen, was wiederum eine ernsthafte Konditionierung in den Berechnungen und Instabilitäten der Parameterschätzungen verursachen kann. Wenn Sie Konvergenzprobleme haben, während Sie ein Modell mit ARMA-Fehlerprozessen abschätzen, versuchen Sie es in Schritten zu schätzen. Zuerst verwenden Sie eine FIT-Anweisung, um nur die strukturellen Parameter mit den ARMA-Parametern auf Null (oder vernünftige vorherige Schätzungen falls vorhanden) abzuschätzen. Als nächstes verwenden Sie eine andere FIT-Anweisung, um die ARMA-Parameter nur mit den strukturellen Parameterwerten aus dem ersten Lauf zu schätzen. Da die Werte der Strukturparameter wahrscheinlich nahe an ihren endgültigen Schätzungen liegen, können die ARMA-Parameter-Schätzungen nun konvergieren. Schließlich verwenden Sie eine andere FIT-Anweisung, um simultane Schätzungen aller Parameter zu erzeugen. Da die Anfangswerte der Parameter nun wahrscheinlich ganz nahe bei ihren endgültigen gemeinsamen Schätzungen liegen, sollten die Schätzungen schnell konvergieren, wenn das Modell für die Daten geeignet ist. AR Anfangsbedingungen Die anfänglichen Verzögerungen der Fehlerausdrücke von AR (p) - Modellen können auf unterschiedliche Weise modelliert werden. Die autoregressiven Fehlerstartmethoden, die von SASETS-Prozeduren unterstützt werden, sind die folgenden: bedingte kleinste Quadrate (ARIMA - und MODELL-Prozeduren) bedingungslose kleinste Quadrate (AUTOREG-, ARIMA - und MODELL-Prozeduren) maximale Wahrscheinlichkeit (AUTOREG-, ARIMA - und MODELL-Prozeduren) Yule-Walker (AUTOREG Vorgehensweise) Hildreth-Lu, der die ersten P-Beobachtungen löscht (nur MODEL-Verfahren) Siehe Kapitel 8, Das AUTOREG-Verfahren für eine Erläuterung und Diskussion der Vorzüge verschiedener AR (p) Startmethoden. Die CLS-, ULS-, ML - und HL-Initialisierungen können von PROC MODEL durchgeführt werden. Bei AR (1) Fehlern können diese Initialisierungen wie in Tabelle 18.2 gezeigt hergestellt werden. Diese Methoden sind in großen Proben äquivalent. Tabelle 18.2 Initialisierungen von PROC MODEL: AR (1) FEHLER Die anfänglichen Verzögerungen der Fehlerterme von MA (q) Modellen können auch auf unterschiedliche Weise modelliert werden. Die folgenden gleitenden durchschnittlichen Fehler-Start-up-Paradigmen werden von den ARIMA - und MODEL-Prozeduren unterstützt: bedingungslose kleinste Quadrate bedingte kleinste Quadrate Die bedingte Methode der kleinsten Quadrate, um gleitende durchschnittliche Fehlerbegriffe zu schätzen, ist nicht optimal, da sie das Start-Problem ignoriert. Dies verringert die Effizienz der Schätzungen, obwohl sie selbständig bleiben. Die anfänglichen verzögerten Residuen, die sich vor dem Start der Daten erstrecken, werden als 0 angenommen, ihr unbedingter Erwartungswert. Dies führt zu einem Unterschied zwischen diesen Residuen und den verallgemeinerten kleinsten Quadraten-Resten für die gleitende Durchschnittskovarianz, die im Gegensatz zum autoregressiven Modell durch den Datensatz bestehen bleibt. Normalerweise konvergiert diese Differenz schnell auf 0, aber für fast nicht umwandelbare gleitende Mittelprozesse ist die Konvergenz ziemlich langsam. Um dieses Problem zu minimieren, sollten Sie genügend Daten haben, und die gleitenden durchschnittlichen Parameterschätzungen sollten innerhalb des invertierbaren Bereichs liegen. Dieses Problem kann auf Kosten des Schreibens eines komplexeren Programms korrigiert werden. Unbedingte kleinste Quadrate Schätzungen für die MA (1) Prozess kann durch die Angabe des Modells wie folgt produziert werden: Moving-Average-Fehler können schwer abzuschätzen. Sie sollten eine AR (p) - Animation an den gleitenden Mittelprozess anwenden. Ein gleitender Durchschnittsprozess kann in der Regel durch einen autoregressiven Prozess gut angenähert werden, wenn die Daten nicht geglättet oder differenziert wurden. Das AR-Makro Das SAS-Makro AR erzeugt Programmieranweisungen für PROC MODEL für autoregressive Modelle. Das AR-Makro ist Teil der SASETS-Software und es sind keine speziellen Optionen erforderlich, um das Makro zu verwenden. Der autoregressive Prozess kann auf die strukturellen Gleichungsfehler oder auf die endogene Reihe selbst angewendet werden. Das AR-Makro kann für die folgenden Autoregressionstypen verwendet werden: uneingeschränkte Vektorautoregression eingeschränkte Vektorautoregression Univariate Autoregression Um den Fehlerterm einer Gleichung als autoregressiven Prozess zu modellieren, verwenden Sie nach der Gleichung die folgende Aussage: Angenommen, Y ist ein Lineare Funktion von X1, X2 und einem AR (2) Fehler. Sie würden dieses Modell wie folgt schreiben: Die Anrufe nach AR müssen nach allen Gleichungen kommen, auf die der Prozess zutrifft. Der vorangehende Makroaufruf, AR (y, 2), erzeugt die in der LIST-Ausgabe in Abbildung 18.58 dargestellten Anweisungen. Abbildung 18.58 LIST Option Ausgang für ein AR (2) - Modell Die PRED-vordefinierten Variablen sind temporäre Programmvariablen, so dass die Verzögerungen der Residuen die korrekten Residuen sind und nicht die durch diese Gleichung neu definierten. Beachten Sie, dass dies den Aussagen entspricht, die explizit im Abschnitt Allgemeine Formular für ARMA-Modelle geschrieben sind. Sie können die autoregressiven Parameter auch bei ausgewählten Lags auf Null setzen. Wenn Sie z. B. autoregressive Parameter bei den Ziffern 1, 12 und 13 wünschen, können Sie die folgenden Aussagen verwenden: Diese Aussagen erzeugen die in Abbildung 18.59 dargestellte Ausgabe. Abbildung 18.59 LIST Option Ausgang für ein AR-Modell mit Lags bei 1, 12 und 13 Das MODEL Procedure Listing von Compiled Program Code Statement als Parsed PRED. yab x1 c x2 RESID. y PRED. y - ACTUAL. y ERROR. Y PRED. Y - y OLDPRED. y PRED. y yl1 ZLAG1 (y - perdy) yl12 ZLAG12 (y - perdy) yl13 ZLAG13 (y - perdy) RESID. y PRED. y - ACTUAL. y ERROR. Y PRED. y - y Es gibt Variationen der bedingten Methode der kleinsten Quadrate, je nachdem, ob Beobachtungen zu Beginn der Serie zum Aufwärmen des AR-Prozesses verwendet werden. Standardmäßig verwendet die AR-bedingte Methode der kleinsten Quadrate alle Beobachtungen und nimmt Nullen für die anfänglichen Verzögerungen autoregressiver Begriffe an. Durch die Verwendung der M-Option können Sie anfordern, dass AR die unbedingte Methode der kleinsten Quadrate (ULS) oder Maximum-Likelihood (ML) verwendet. Zum Beispiel finden die Diskussionen dieser Methoden im Abschnitt AR Anfangsbedingungen. Mit der Option MCLS n können Sie anfordern, dass die ersten n Beobachtungen verwendet werden, um Schätzungen der ursprünglichen autoregressiven Verzögerungen zu berechnen. In diesem Fall beginnt die Analyse mit der Beobachtung n 1. Zum Beispiel: Mit dem AR-Makro können Sie mit der Option TYPEV ein autoregressives Modell an die endogene Variable anstelle des Fehlerbegriffs anwenden. Wenn Sie zum Beispiel die fünf vergangenen Verzögerungen von Y der Gleichung im vorherigen Beispiel hinzufügen möchten, können Sie mit AR die Parameter und Verzögerungen verwenden, indem Sie die folgenden Anweisungen verwenden: Die vorherigen Anweisungen erzeugen die in Abbildung 18.60 dargestellte Ausgabe. Abbildung 18.60 LIST Option Ausgang für ein AR-Modell von Y Dieses Modell prognostiziert Y als lineare Kombination von X1, X2, einem Intercept und den Werten von Y in den letzten fünf Perioden. Unbeschränkte Vektor-Autoregression Um die Fehlerterme eines Satzes von Gleichungen als autoregressiver Autorektor zu modellieren, verwenden Sie nach den Gleichungen die folgende Form des AR-Makros: Der Prozeßname-Wert ist ein beliebiger Name, den Sie für AR verwenden, um Namen für den autoregressiven zu verwenden Parameter. Sie können das AR-Makro verwenden, um mehrere verschiedene AR-Prozesse für verschiedene Sätze von Gleichungen zu modellieren, indem Sie für jeden Satz unterschiedliche Prozessnamen verwenden. Der Prozessname stellt sicher, dass die verwendeten Variablennamen eindeutig sind. Verwenden Sie einen kurzen Prozessnamenwert für den Prozess, wenn Parameterschätzungen in einen Ausgabedatensatz geschrieben werden sollen. Das AR-Makro versucht, Parameternamen zu erstellen, die kleiner oder gleich acht Zeichen sind, aber dies ist durch die Länge des Prozessnamens begrenzt. Die als Präfix für die AR-Parameternamen verwendet wird. Der Variablenwert ist die Liste der endogenen Variablen für die Gleichungen. Angenommen, dass Fehler für die Gleichungen Y1, Y2 und Y3 durch einen autoregressiven Prozess zweiter Ordnung erzeugt werden. Sie können die folgenden Aussagen verwenden, die für Y1 und einen ähnlichen Code für Y2 und Y3 generieren: Für die Vektorprozesse kann nur die Methode der bedingten kleinsten Quadrate (MCLS oder MCLS n) verwendet werden. Sie können auch das gleiche Formular mit Einschränkungen verwenden, dass die Koeffizientenmatrix bei ausgewählten Lags 0 ist. Zum Beispiel geben die folgenden Aussagen einen Vektorprozess dritter Ordnung an die Gleichungsfehler mit allen Koeffizienten bei Verzögerung 2, die auf 0 beschränkt ist, und mit den Koeffizienten bei Verzögerungen 1 und 3 uneingeschränkt: Sie können die drei Serien Y1Y3 als Vektor autoregressiven Prozess modellieren In den Variablen statt in den Fehlern mit der Option TYPEV. Wenn du Y1Y3 als Funktion von vergangenen Werten von Y1Y3 und einigen exogenen Variablen oder Konstanten modellieren möchtest, kannst du mit AR die Aussagen für die Verzögerungsbedingungen erzeugen. Schreiben Sie für jede Variable eine Gleichung für den nichtautoregressiven Teil des Modells und rufen Sie dann AR mit der Option TYPEV auf. Zum Beispiel kann der nichtautoregressive Teil des Modells eine Funktion von exogenen Variablen sein, oder es können Abschnittsparameter sein. Wenn es keine exogenen Komponenten für das Vektor-Autoregression-Modell gibt, einschließlich keine Abschnitte, dann ordnen Sie jeder der Variablen Null zu. Es muss eine Zuordnung zu jeder der Variablen geben, bevor AR aufgerufen wird. Dieses Beispiel modelliert den Vektor Y (Y1 Y2 Y3) als lineare Funktion nur seines Wertes in den vorherigen zwei Perioden und einen weißen Rauschfehlervektor. Das Modell hat 18 (3 3 3 3) Parameter. Syntax des AR-Makros Es gibt zwei Fälle der Syntax des AR-Makros. Wenn keine Beschränkungen für einen Vektor-AR-Prozess erforderlich sind, gibt die Syntax des AR-Makros das allgemeine Formular ein Präfix für AR, das beim Erstellen von Namen von Variablen verwendet wird, die benötigt werden, um den AR-Prozess zu definieren. Wenn der Endolist nicht angegeben ist, wird die endogene Liste standardmäßig benannt. Die der Name der Gleichung sein muss, auf die der AR-Fehlerprozess angewendet werden soll. Der Name Wert darf 32 Zeichen nicht überschreiten. Ist die Reihenfolge des AR-Prozesses. Gibt die Liste der Gleichungen an, auf die der AR-Prozess angewendet werden soll. Wenn mehr als ein Name gegeben ist, wird ein uneingeschränkter Vektorprozess mit den strukturellen Resten aller Gleichungen erzeugt, die als Regressoren in jeder der Gleichungen enthalten sind. Wenn nicht angegeben, wird endolist standardmäßig benannt. Gibt die Liste der Verzögerungen an, an denen die AR-Begriffe hinzugefügt werden sollen. Die Koeffizienten der Terme, die nicht aufgeführt sind, werden auf 0 gesetzt. Alle aufgeführten Lags müssen kleiner oder gleich nlag sein. Und es muss keine Duplikate geben. Wenn nicht angegeben, wird die Laglist standardmäßig auf alle Verzögerungen 1 bis nlag gesetzt. Legt die zu implementierende Schätzmethode fest. Gültige Werte von M sind CLS (bedingte kleinste Quadrate Schätzungen), ULS (unbedingte kleinste Quadrate Schätzungen) und ML (Maximum Likelihood Schätzungen). MCLS ist die Voreinstellung. Nur MCLS ist erlaubt, wenn mehr als eine Gleichung angegeben ist. Die ULS - und ML-Methoden werden für AR-Modelle von AR nicht unterstützt. Dass der AR-Prozess auf die endogenen Variablen selbst anstatt auf die strukturellen Residuen der Gleichungen angewendet werden soll. Eingeschränkte Vektor-Autoregression Sie können steuern, welche Parameter in den Prozess aufgenommen werden, und beschränken auf 0 die Parameter, die Sie nicht enthalten. Zuerst verwenden Sie AR mit der Option DEFER, um die Variablenliste zu deklarieren und die Dimension des Prozesses zu definieren. Verwenden Sie dann zusätzliche AR-Aufrufe, um Begriffe für ausgewählte Gleichungen mit ausgewählten Variablen an ausgewählten Lags zu erzeugen. Zum Beispiel sind die erzeugten Fehlergleichungen wie folgt: Dieses Modell besagt, dass die Fehler für Y1 von den Fehlern von Y1 und Y2 (aber nicht Y3) an beiden Verzögerungen 1 und 2 abhängen und dass die Fehler für Y2 und Y3 davon abhängen Die vorherigen Fehler für alle drei Variablen, aber nur bei Verzögerung 1. AR-Makro-Syntax für eingeschränkte Vektor-AR Eine alternative Verwendung von AR erlaubt es, Einschränkungen für einen Vektor-AR-Prozess aufzuerlegen, indem man AR mehrmals aufruft, um verschiedene AR-Terme und Verzögerungen für verschiedene anzugeben Gleichungen. Der erste Aufruf hat das allgemeine Formular spezifiziert ein Präfix für AR, das beim Erstellen von Namen von Variablen verwendet wird, die benötigt werden, um den Vektor-AR-Prozess zu definieren. Gibt die Reihenfolge des AR-Prozesses an. Gibt die Liste der Gleichungen an, auf die der AR-Prozess angewendet werden soll. Gibt an, dass AR nicht den AR-Prozess generieren soll, sondern auf weitere Informationen warten muss, die in späteren AR-Aufrufen für denselben Namenswert angegeben sind. Die nachfolgenden Anrufe haben die allgemeine Form ist die gleiche wie im ersten Aufruf. Gibt die Liste der Gleichungen an, auf die die Spezifikationen dieses AR-Aufrufs angewendet werden sollen. Nur Namen, die im endolistischen Wert des ersten Aufrufs für den Namen Wert angegeben sind, können in der Liste der Gleichungen in der eqlist erscheinen. Spezifiziert die Liste der Gleichungen, deren verzögerte strukturelle Residuen als Regressoren in den Gleichungen in eqlist aufgenommen werden sollen. Nur Namen im Endolisten des ersten Aufrufs für den Namenswert können in varlist erscheinen. Wenn nicht angegeben, varlist standardmäßig endolist. Gibt die Liste der Verzögerungen an, an denen die AR-Begriffe hinzugefügt werden sollen. Die Koeffizienten der Terme, die nicht aufgeführt sind, werden auf 0 gesetzt. Alle aufgeführten Lags müssen kleiner oder gleich dem Wert von nlag sein. Und es muss keine Duplikate geben. Wenn nicht angegeben, wird die Laglist standardmäßig auf alle Verzögerungen 1 bis nlag gesetzt. Das MA-Makro Das SAS-Makro MA generiert Programmierungsanweisungen für PROC MODEL für gleitende Durchschnittsmodelle. Das MA-Makro ist Teil der SASETS-Software und es sind keine speziellen Optionen erforderlich, um das Makro zu verwenden. Der gleitende durchschnittliche Fehlerprozess kann auf die strukturellen Gleichungsfehler angewendet werden. Die Syntax des MA-Makros ist das gleiche wie das AR-Makro, außer es gibt kein TYPE-Argument. Wenn Sie die MA - und AR-Makros kombinieren, muss das MA-Makro dem AR-Makro folgen. Die folgenden SASIML-Anweisungen erzeugen einen ARMA (1, (1 3)) Fehlerprozess und speichern ihn im Datensatz MADAT2. Die folgenden PROC MODEL-Anweisungen werden verwendet, um die Parameter dieses Modells mit Hilfe der Maximum-Likelihood-Fehlerstruktur zu schätzen: Die Schätzungen der Parameter, die durch diesen Lauf erzeugt werden, sind in Abbildung 18.61 dargestellt. Abbildung 18.61 Schätzungen aus einem ARMA (1, (1 3)) Prozess Es gibt zwei Fälle der Syntax für das MA-Makro. Wenn Einschränkungen für einen Vektor-MA-Prozess nicht benötigt werden, gibt die Syntax des MA-Makros das allgemeine Formular ein Präfix für MA an, das beim Erstellen von Namen von Variablen verwendet wird, die benötigt werden, um den MA-Prozess zu definieren und ist der Standard-Endolist. Ist die Reihenfolge des MA-Prozesses. Gibt die Gleichungen an, auf die der MA-Prozess angewendet werden soll. Wenn mehr als ein Name angegeben ist, wird die CLS-Schätzung für den Vektorprozess verwendet. Gibt die Verzögerungen an, bei denen die MA-Bedingungen hinzugefügt werden sollen. Alle aufgeführten Lags müssen kleiner oder gleich nlag sein. Und es muss keine Duplikate geben. Wenn nicht angegeben, wird die Laglist standardmäßig auf alle Verzögerungen 1 bis nlag gesetzt. Legt die zu implementierende Schätzmethode fest. Gültige Werte von M sind CLS (bedingte kleinste Quadrate Schätzungen), ULS (unbedingte kleinste Quadrate Schätzungen) und ML (Maximum Likelihood Schätzungen). MCLS ist die Voreinstellung. Nur MCLS ist erlaubt, wenn im Endolisten mehr als eine Gleichung angegeben ist. MA Makro-Syntax für eingeschränkte Vektor-Moving-Average Eine alternative Verwendung von MA erlaubt es, Einschränkungen für einen Vektor-MA-Prozess aufzuerlegen, indem man MA mehrmals aufruft, um verschiedene MA-Terme anzugeben und für verschiedene Gleichungen zu verzögern. Der erste Aufruf hat das allgemeine Formular spezifiziert ein Präfix für MA, das beim Erstellen von Namen von Variablen verwendet wird, die benötigt werden, um den Vektor-MA-Prozess zu definieren. Gibt die Reihenfolge des MA-Prozesses an. Gibt die Liste der Gleichungen an, auf die der MA-Prozess angewendet werden soll. Gibt an, dass MA nicht den MA-Prozess generieren soll, sondern auf weitere Informationen warten muss, die in späteren MA-Aufrufen für denselben Namenswert angegeben sind. Die nachfolgenden Anrufe haben die allgemeine Form ist die gleiche wie im ersten Aufruf. Gibt die Liste der Gleichungen an, auf die die Spezifikationen dieses MA-Aufrufs angewendet werden sollen. Spezifiziert die Liste der Gleichungen, deren verzögerte strukturelle Residuen als Regressoren in den Gleichungen in eqlist aufgenommen werden sollen. Gibt die Liste der Verzögerungen an, bei denen die MA-Terme hinzugefügt werden sollen.4.2 Lineare stationäre Modelle für die Zeitreihe, in der die Zufallsvariable die Innovation genannt wird, weil sie den Teil der beobachteten Variablen darstellt, der bei den vergangenen Werten nicht vorhersehbar ist. Das allgemeine Modell (4.4) geht davon aus, dass das Ausgangssignal eines linearen Filters ist, der die bisherigen Innovationen umwandelt, dh ein linearer Prozess ist. Diese Linearitätsannahme beruht auf dem Wolds-Zerlegungssatz (Wold 1938), der besagt, dass jeder diskrete stationäre Kovarianzprozess als die Summe zweier unkorrelierter Prozesse ausgedrückt werden kann, wo rein deterministisch ist und ein rein indeterministischer Prozess ist, der als linear geschrieben werden kann Summe des Innovationsprozesses: Wo ist eine Folge von seriell unkorrelierten Zufallsvariablen mit null mittlerer und gemeinsamer Varianz. Bedingung ist notwendig für die Stationarität. Die Formulierung (4.4) ist eine endliche Reparametrierung der unendlichen Darstellung (4.5) - (4.6) mit Konstante. Es ist in der Regel in Bezug auf die Lag-Operator definiert durch, die einen kürzeren Ausdruck: wo die Lag-Operator-Polynome und werden als das Polynom bzw. das Polynom bezeichnet. Um eine Parameterredundanz zu vermeiden, gehen wir davon aus, dass es keine gemeinsamen Faktoren zwischen den und den Komponenten gibt. Als nächstes werden wir die Handlung von einigen Zeitreihen untersuchen, die durch stationäre Modelle mit dem Ziel der Bestimmung der Hauptmuster ihrer zeitlichen Evolution erzeugt werden. Abbildung 4.2 enthält zwei Serien, die aus den folgenden stationären Prozessen berechnet wurden, die mit Hilfe des Genarma-Quantlets berechnet wurden: Abbildung 4.2: Zeitreihen, die von Modellen erzeugt werden Wie erwartet, bewegen sich beide Zeitreihen um ein konstantes Niveau ohne Änderungen der Varianz aufgrund der stationären Eigenschaft. Darüber hinaus liegt diese Ebene dem theoretischen Mittel des Prozesses nahe, und der Abstand jedes Punktes zu diesem Wert ist sehr selten außerhalb der Grenzen. Darüber hinaus zeigt die Entwicklung der Serie lokale Abweichungen vom Mittel des Prozesses, die als das mittlere Reversionsverhalten bekannt ist, das die stationären Zeitreihen charakterisiert. Lassen Sie uns mit einigen Details die Eigenschaften der verschiedenen Prozesse untersuchen, insbesondere die Autokovarianzfunktion, die die dynamischen Eigenschaften eines stochastischen stationären Prozesses erfasst. Diese Funktion hängt von den Maßeinheiten ab, so dass die übliche Messung des Grades der Linearität zwischen den Variablen der Korrelationskoeffizient ist. In the case of stationary processes, the autocorrelation coefficient at lag , denoted by , is defined as the correlation between and : Thus, the autocorrelation function (ACF) is the autocovariance function standarized by the variance . The properties of the ACF are: Given the symmetry property (4.10 ), the ACF is usually represented by means of a bar graph at the nonnegative lags that is called the simple correlogram. Another useful tool to describe the dynamics of a stationary process is the partial autocorrelation function (PACF). The partial autocorrelation coefficient at lag measures the linear association between and adjusted for the effects of the intermediate values . Therefore, it is just the coefficient in the linear regression model: The properties of the PACF are equivalent to those of the ACF (4.8 )-(4.10 ) and it is easy to prove that (Box and Jenkins 1976 ). Like the ACF, the partial autocorrelation function does not depend on the units of measure and it is represented by means of a bar graph at the nonnegative lags that is called partial correlogram. The dynamic properties of each stationary model determine a particular shape of the correlograms. Moreover, it can be shown that, for any stationary process, both functions, ACF and PACF, approach to zero as the lag tends to infinity. The models are not always stationary processes, so it is necessary first to determine the conditions for stationarity. There are subclasses of models which have special properties so we shall study them separately. Thus, when and , it is a white noise process . when , it is a pure moving average process of order . , and when it is a pure autoregressive process of order . . 4.2.1 White Noise Process The simplest model is a white noise process, where is a sequence of uncorrelated zero mean variables with constant variance . It is denoted by . This process is stationary if its variance is finite, , since given that: verifies conditions (4.1 )-(4.3 ). Moreover, is uncorrelated over time, so its autocovariance function is: Figure 4.7 shows two simulated time series generated from processes with zero mean and parameters and -0.7, respectively. The autoregressive parameter measures the persistence of past events into the current values. For example, if , a positive (or negative) shock affects positively (or negatively) for a period of time which is longer the larger the value of . When , the series moves more roughly around the mean due to the alternation in the direction of the effect of , that is, a shock that affects positively in moment , has negative effects on , positive in . The process is always invertible and it is stationary when the parameter of the model is constrained to lie in the region . To prove the stationary condition, first we write the in the moving average form by recursive substitution of in (4.14 ): Figure 4.8: Population correlograms for processes That is, is a weighted sum of past innovations. The weights depend on the value of the parameter : when , (or ), the influence of a given innovation increases (or decreases) through time. Taking expectations to (4.15 ) in order to compute the mean of the process, we get: Given that , the result is a sum of infinite terms that converges for all value of only if , in which case . A similar problem appears when we compute the second moment. The proof can be simplified assuming that , that is, . Then, variance is: Again, the variance goes to infinity except for , in which case . It is easy to verify that both the mean and the variance explode when that condition doesnt hold. The autocovariance function of a stationary process is Therefore, the autocorrelation function for the stationary model is: That is, the correlogram shows an exponential decay with positive values always if is positive and with negative-positive oscillations if is negative (see figure 4.8 ). Furthermore, the rate of decay decreases as increases, so the greater the value of the stronger the dynamic correlation in the process. Finally, there is a cutoff in the partial autocorrelation function at the first lag. Figure 4.9: Population correlograms for processes It can be shown that the general process (Box and Jenkins 1976 ): Is stationary only if the roots of the characteristic equation of the polynomial lie outside the unit circle. The mean of a stationary model is . Is always invertible for any values of the parameters. Its ACF goes to zero exponentially when the roots of are real or with sine-cosine wave fluctuations when they are complex. Its PACF has a cutoff at the lag, that is,.Some examples of correlograms for more complex models, such as the , can be seen in figure 4.9. They are very similar to the patterns when the processes have real roots, but take a very different shape when the roots are complex (see the first pair of graphics of figure 4.9 ). 4.2.4 Autoregressive Moving Average Model The general (finite-order) autoregressive moving average model of orders , , is:

No comments:

Post a Comment