Sunday 15 October 2017

Autoregressive Moving Average Erklärt


Ein RIMA steht für Autoregressive Integrated Moving Average Modelle. Univariate (Einzelvektor) ARIMA ist eine Prognosemethode, die die zukünftigen Werte einer Serie, die vollständig auf ihrer eigenen Trägheit basiert, projiziert. Seine Hauptanwendung liegt im Bereich der kurzfristigen Prognose mit mindestens 40 historischen Datenpunkten. Es funktioniert am besten, wenn Ihre Daten eine stabile oder konsistente Muster im Laufe der Zeit mit einem Minimum an Ausreißern zeigt. Manchmal nennt man Box-Jenkins (nach den ursprünglichen Autoren), ARIMA ist in der Regel überlegen exponentielle Glättung Techniken, wenn die Daten relativ lange und die Korrelation zwischen vergangenen Beobachtungen ist stabil. Wenn die Daten kurz oder stark flüchtig sind, kann eine gewisse Glättungsmethode besser ablaufen. Wenn Sie nicht über mindestens 38 Datenpunkte verfügen, sollten Sie eine andere Methode als ARIMA betrachten. Der erste Schritt bei der Anwendung der ARIMA-Methodik ist die Überprüfung der Stationarität. Stationarität impliziert, dass die Reihe auf einem ziemlich konstanten Niveau über Zeit bleibt. Wenn ein Trend besteht, wie in den meisten wirtschaftlichen oder geschäftlichen Anwendungen, dann sind Ihre Daten nicht stationär. Die Daten sollten auch eine konstante Varianz in ihren Schwankungen im Laufe der Zeit zeigen. Dies ist leicht zu sehen mit einer Serie, die stark saisonal und wächst mit einer schnelleren Rate. In einem solchen Fall werden die Höhen und Tiefen der Saisonalität im Laufe der Zeit dramatischer. Ohne dass diese Stationaritätsbedingungen erfüllt sind, können viele der mit dem Prozess verbundenen Berechnungen nicht berechnet werden. Wenn eine grafische Darstellung der Daten Nichtstationarität anzeigt, dann sollten Sie die Serie unterscheiden. Die Differenzierung ist eine hervorragende Möglichkeit, eine nichtstationäre Serie in eine stationäre zu transformieren. Dies geschieht durch Subtrahieren der Beobachtung in der aktuellen Periode von der vorherigen. Wenn diese Transformation nur einmal zu einer Reihe erfolgt, sagen Sie, dass die Daten zuerst unterschieden wurden. Dieser Prozess im Wesentlichen eliminiert den Trend, wenn Ihre Serie wächst mit einer ziemlich konstanten Rate. Wenn es mit steigender Rate wächst, können Sie die gleiche Prozedur anwenden und die Daten erneut differenzieren. Ihre Daten würden dann zweite differenziert werden. Autokorrelationen sind Zahlenwerte, die angeben, wie sich eine Datenreihe mit der Zeit auf sich bezieht. Genauer gesagt misst es, wie stark Datenwerte bei einer bestimmten Anzahl von Perioden auseinander über die Zeit miteinander korreliert werden. Die Anzahl der Perioden wird in der Regel als Verzögerung bezeichnet. Zum Beispiel mißt eine Autokorrelation bei Verzögerung 1, wie die Werte 1 Periode auseinander in der Reihe miteinander korreliert sind. Eine Autokorrelation bei Verzögerung 2 misst, wie die Daten, die zwei Perioden voneinander getrennt sind, über die gesamte Reihe miteinander korrelieren. Autokorrelationen können im Bereich von 1 bis -1 liegen. Ein Wert nahe 1 gibt eine hohe positive Korrelation an, während ein Wert nahe -1 impliziert eine hohe negative Korrelation. Diese Maßnahmen werden meist durch grafische Darstellungen, sogenannte Korrelagramme, ausgewertet. Ein Korrelationsdiagramm zeigt die Autokorrelationswerte für eine gegebene Reihe bei unterschiedlichen Verzögerungen. Dies wird als Autokorrelationsfunktion bezeichnet und ist bei der ARIMA-Methode sehr wichtig. Die ARIMA-Methodik versucht, die Bewegungen in einer stationären Zeitreihe als Funktion der so genannten autoregressiven und gleitenden Durchschnittsparameter zu beschreiben. Diese werden als AR-Parameter (autoregessiv) und MA-Parameter (gleitende Mittelwerte) bezeichnet. Ein AR-Modell mit nur einem Parameter kann als geschrieben werden. X (t) A (1) X (t-1) E (t) wobei X (t) Zeitreihen A (1) der autoregressive Parameter der Ordnung 1 X (t-1) (T) der Fehlerterm des Modells Dies bedeutet einfach, dass jeder gegebene Wert X (t) durch eine Funktion seines vorherigen Wertes X (t-1) plus einen unerklärlichen Zufallsfehler E (t) erklärt werden kann. Wenn der geschätzte Wert von A (1) 0,30 betrug, dann wäre der aktuelle Wert der Reihe mit 30 seines vorherigen Wertes 1 verknüpft. Natürlich könnte die Serie auf mehr als nur einen vergangenen Wert bezogen werden. Zum Beispiel ist X (t) A (1) X (t-1) A (2) X (t-2) E (t) Dies zeigt an, dass der aktuelle Wert der Reihe eine Kombination der beiden unmittelbar vorhergehenden Werte ist, X (t-1) und X (t-2) zuzüglich eines Zufallsfehlers E (t). Unser Modell ist nun ein autoregressives Modell der Ordnung 2. Moving Average Models: Eine zweite Art von Box-Jenkins-Modell wird als gleitendes Durchschnittsmodell bezeichnet. Obwohl diese Modelle dem AR-Modell sehr ähnlich sind, ist das Konzept dahinter ganz anders. Bewegliche Durchschnittsparameter beziehen sich auf das, was in der Periode t stattfindet, nur auf die zufälligen Fehler, die in vergangenen Zeitperioden aufgetreten sind, dh E (t-1), E (t-2) usw. anstatt auf X (t-1), X T-2), (Xt-3) wie in den autoregressiven Ansätzen. Ein gleitendes Durchschnittsmodell mit einem MA-Begriff kann wie folgt geschrieben werden. X (t) - B (1) E (t-1) E (t) Der Begriff B (1) wird als MA der Ordnung 1 bezeichnet. Das negative Vorzeichen vor dem Parameter wird nur für Konventionen verwendet und in der Regel ausgedruckt Automatisch von den meisten Computerprogrammen. Das obige Modell sagt einfach, dass jeder gegebene Wert von X (t) direkt nur mit dem Zufallsfehler in der vorherigen Periode E (t-1) und mit dem aktuellen Fehlerterm E (t) zusammenhängt. Wie im Fall von autoregressiven Modellen können die gleitenden Durchschnittsmodelle auf übergeordnete Strukturen mit unterschiedlichen Kombinationen und gleitenden mittleren Längen erweitert werden. Die ARIMA-Methodik erlaubt es auch, Modelle zu erstellen, die sowohl autoregressive als auch gleitende Durchschnittsparameter zusammenführen. Diese Modelle werden oft als gemischte Modelle bezeichnet. Obwohl dies für eine kompliziertere Prognose-Tool macht, kann die Struktur tatsächlich simulieren die Serie besser und produzieren eine genauere Prognose. Pure Modelle implizieren, dass die Struktur nur aus AR oder MA-Parameter besteht - nicht beides. Die Modelle, die von diesem Ansatz entwickelt werden, werden in der Regel als ARIMA-Modelle bezeichnet, da sie eine Kombination aus autoregressiver (AR), Integration (I) verwenden, die sich auf den umgekehrten Prozess der Differenzierung bezieht, um die Prognose zu erzeugen. Ein ARIMA-Modell wird üblicherweise als ARIMA (p, d, q) angegeben. Dies ist die Reihenfolge der autoregressiven Komponenten (p), der Anzahl der differenzierenden Operatoren (d) und der höchsten Ordnung des gleitenden Mittelwerts. Beispielsweise bedeutet ARIMA (2,1,1), dass Sie ein autoregressives Modell zweiter Ordnung mit einer ersten gleitenden Durchschnittskomponente haben, deren Serie einmal differenziert wurde, um die Stationarität zu induzieren. Auswahl der richtigen Spezifikation: Das Hauptproblem in der klassischen Box-Jenkins versucht zu entscheiden, welche ARIMA-Spezifikation zu verwenden - i. e. Wie viele AR - und / oder MA-Parameter einzuschließen sind. Dies ist, was viel von Box-Jenkings 1976 dem Identifikationsprozeß gewidmet wurde. Es hing von der graphischen und numerischen Auswertung der Stichprobenautokorrelation und der partiellen Autokorrelationsfunktionen ab. Nun, für Ihre grundlegenden Modelle, ist die Aufgabe nicht allzu schwierig. Jeder hat Autokorrelationsfunktionen, die eine bestimmte Weise aussehen. Allerdings, wenn Sie gehen in der Komplexität, die Muster sind nicht so leicht zu erkennen. Um es schwieriger zu machen, stellen Ihre Daten nur eine Probe des zugrundeliegenden Prozesses dar. Das bedeutet, dass Stichprobenfehler (Ausreißer, Messfehler etc.) den theoretischen Identifikationsprozess verzerren können. Aus diesem Grund ist die traditionelle ARIMA-Modellierung eher eine Kunst als eine Wissenschaft. Identifizierung der Anzahl von AR - oder MA-Terme in einem ARIMA-Modell ACF - und PACF-Plots: Nachdem eine Zeitreihe durch Differenzieren stationarisiert wurde, ist der nächste Schritt beim Anpassen eines ARIMA-Modells Um festzustellen, ob AR - oder MA-Terme benötigt werden, um jegliche Autokorrelation zu korrigieren, die in der differenzierten Reihe verbleibt. Natürlich, mit Software wie Statgraphics, könnten Sie nur versuchen, einige verschiedene Kombinationen von Begriffen und sehen, was am besten funktioniert. Aber es gibt einen systematischeren Weg, dies zu tun. Durch Betrachten der Autokorrelationsfunktion (ACF) und partiellen Autokorrelations - (PACF-) Plots der differenzierten Serien können Sie die Anzahl der benötigten AR - und MA-Terme vorläufig identifizieren. Sie sind bereits mit dem ACF-Diagramm vertraut: Es ist nur ein Balkendiagramm der Koeffizienten der Korrelation zwischen einer Zeitreihe und Verzögerungen von sich selbst. Das PACF-Diagramm ist ein Diagramm der partiellen Korrelationskoeffizienten zwischen der Reihe und den Verzögerungen von sich selbst. Im allgemeinen ist die Quotientquot-Korrelation zwischen zwei Variablen der Betrag der Korrelation zwischen ihnen, der nicht durch ihre gegenseitigen Korrelationen mit einem bestimmten Satz von anderen Variablen erklärt wird. Wenn wir z. B. eine Variable Y auf andere Variablen X1, X2 und X3 zurückrechnen, ist die partielle Korrelation zwischen Y und X3 der Betrag der Korrelation zwischen Y und X3, der nicht durch ihre gemeinsamen Korrelationen mit X1 und X2 erklärt wird. Diese partielle Korrelation kann als Quadratwurzel der Abweichung berechnet werden, die durch Addition von X3 an die Regression von Y auf X1 und X2 erreicht wird. Eine partielle Autokorrelation ist die Größe der Korrelation zwischen einer Variablen und einer Verzögerung von sich, die nicht durch Korrelationen bei allen niedrigeren Ordnungsschichten erklärt wird. Die Autokorrelation einer Zeitreihe Y bei der Verzögerung 1 ist der Koeffizient der Korrelation zwischen Y t und Y t - 1. Was vermutlich auch die Korrelation zwischen Y t -1 und Y t -2 ist. Aber wenn Y t mit Y t -1 korreliert. Und Y t -1 ist gleich mit Y t -2 korreliert. Dann sollten wir auch erwarten, Korrelation zwischen Y t und Y t-2 zu finden. Tatsächlich ist die Korrelationsmenge, die wir bei der Verzögerung 2 erwarten sollten, genau das Quadrat der Lag-1-Korrelation. Folglich propagiert die Korrelation bei Verzögerung 1 eine Verzögerung 2 und vermutlich zu Verzögerungen höherer Ordnung. Die partielle Autokorrelation bei Verzögerung 2 ist daher die Differenz zwischen der tatsächlichen Korrelation bei Verzögerung 2 und der erwarteten Korrelation aufgrund der Ausbreitung der Korrelation bei Verzögerung 1. Hier ist die Autokorrelationsfunktion (ACF) der UNITS-Reihe, bevor irgendeine Differenzierung durchgeführt wird: Die Autokorrelationen sind für eine große Anzahl von Verzögerungen signifikant, aber vielleicht sind die Autokorrelationen bei den Verzögerungen 2 und höher lediglich auf die Ausbreitung der Autokorrelation bei Verzögerung 1 zurückzuführen. Dies wird durch die PACF-Kurve bestätigt: Es ist zu beachten, daß die PACF-Kurve signifikant ist Spike nur bei Verzögerung 1, was bedeutet, dass alle Autokorrelationen höherer Ordnung effektiv durch die Lag-1-Autokorrelation erklärt werden. Die partiellen Autokorrelationen bei allen Verzögerungen können durch Anpassen einer Folge autoregressiver Modelle mit zunehmender Anzahl von Verzögerungen berechnet werden. Insbesondere ist die partielle Autokorrelation bei Verzögerung k gleich dem geschätzten AR (k) - Koeffizienten in einem autoregressiven Modell mit k Terme - d. e. Ein Multiregressionsmodell, bei dem Y auf LAG (Y, 1), LAG (Y, 2) usw. bis zu LAG (Y, k) zurückgerechnet wird. Somit können Sie durch bloße Inspektion der PACF bestimmen, wie viele AR-Begriffe Sie verwenden müssen, um das Autokorrelationsmuster in einer Zeitreihe zu erläutern: Wenn die partielle Autokorrelation bei einer Verzögerung k signifikant ist und bei einer höheren Ordnung nicht signifikant ist - d. h. Wenn die PACF-Abkürzung offquot bei Verzögerung k - dann schlägt dies vor, Sie sollten versuchen, Montage eines autoregressiven Modells der Ordnung k Die PACF der UNITS-Serie bietet ein extremes Beispiel für die Cut-off-Phänomen: es hat eine sehr große Spitze bei Verzögerung 1 Und keine anderen signifikanten Spitzen, was anzeigt, daß bei Abwesenheit der Differenzierung ein AR (1) - Modell verwendet werden sollte. Jedoch wird sich der AR (1) - Term in diesem Modell als äquivalent zu einer ersten Differenz erweisen, da der geschätzte AR (1) - Koeffizient (der die Höhe der PACF-Spitze bei der Verzögerung 1 ist) nahezu genau gleich 1 ist Die Prognose-Gleichung für ein AR (1) - Modell für eine Reihe Y ohne Abweichungsreihenfolge lautet: Ist der AR (1) - Koeffizient 981 1 in dieser Gleichung gleich 1, so ist dies gleichbedeutend mit der Vorhersage, daß die erste Differenz Von Y konstant ist Es ist gleichbedeutend mit der Gleichung des zufälligen Wandermodells mit Wachstum: Die PACF der UNITS-Reihe sagt uns, dass, wenn wir es nicht unterscheiden, dann sollten wir ein AR (1) - Modell passen, das sich als äquivalent zum Nehmen eignet Eine erste Differenz. Mit anderen Worten, es sagt uns, dass UNITS wirklich eine Ordnung der Differenzierung benötigt, um stationär zu sein. AR - und MA-Signaturen: Wenn die PACF einen scharfen Cutoff zeigt, während der ACF langsamer abnimmt (dh signifikante Spikes bei höheren Lags), dann sagen wir, dass die stationäre Serie eine Zehnsignatur aufweist, was bedeutet, dass das Autokorrelationsmuster leichter erklärt werden kann Durch Hinzufügen von AR-Terme als durch Hinzufügen von MA-Terme. Sie werden wahrscheinlich feststellen, dass eine AR-Signatur gewöhnlich mit einer positiven Autokorrelation bei der Verzögerung 1 assoziiert ist - d. h. Es neigt dazu, in Serie, die leicht unter differenziert auftreten. Der Grund dafür ist, dass ein AR-Term wie eine partielle Differentialquot in der Prognosegleichung agieren kann. Beispielsweise wirkt der AR-Term in einem AR (1) - Modell wie eine erste Differenz, wenn der autoregressive Koeffizient gleich 1 ist, er tut nichts, wenn der autoregressive Koeffizient null ist, und er wirkt wie eine partielle Differenz, wenn der Koeffizient dazwischen liegt 0 und 1. Also, wenn die Reihe etwas unterdifferenziert ist - dh Wenn das nichtstationäre Muster der positiven Autokorrelation nicht vollständig eliminiert worden ist, wird es eine Teilsumme für eine Teildifferenz durch Anzeige einer AR-Signatur zustellen. Folglich haben wir die folgende Faustregel, um festzustellen, wann man AR-Begriffe hinzufügen soll: Regel 6: Wenn die PACF der differenzierten Reihe einen scharfen Cutoff aufweist unddie Lag-1-Autokorrelation positiv ist - i. e. Wenn die Serie etwas quadratisch unterschieden wird, dann erwägen Sie, dem Modell einen AR-Term hinzuzufügen. Die Verzögerung, bei der die PACF abschaltet, ist die angegebene Anzahl von AR-Terme. Grundsätzlich kann jedes Autokorrelationsmuster aus einer stationären Reihe entfernt werden, indem genügend autoregressive Terme (Verzögerungen der stationären Reihe) zu der Vorhersagegleichung hinzugefügt werden, und die PACF teilt Ihnen mit, wie viele dieser Ausdrücke wahrscheinlich benötigt werden. Dies ist jedoch nicht immer der einfachste Weg, um ein gegebenes Muster der Autokorrelation zu erklären: Manchmal ist es effizienter, MA-Bedingungen (Verzögerungen der Prognosefehler) hinzuzufügen. Die Autokorrelationsfunktion (ACF) spielt dieselbe Rolle für MA-Terme, die die PACF für AR-Terme spielt - das heißt, der ACF teilt Ihnen mit, wie viele MA-Bedingungen erforderlich sind, um die verbleibende Autokorrelation aus den differenzierten Serien zu entfernen. Wenn die Autokorrelation bei Verzögerung k aber nicht bei höheren Verzögerungen signifikant ist, d. h. Wenn die ACF-Abkürzungen offquot bei Verzögerung k - dies zeigt, dass genau k MA-Terme in der Prognosegleichung verwendet werden sollten. Im letzteren Fall sagen wir, daß die Stationarisierte Reihe eine Signatur von "Signatur" aufweist, was bedeutet, daß das Autokorrelationsmuster durch Hinzufügen von MA-Terme leichter erklärt werden kann als durch Hinzufügen von AR-Terme. Eine MA-Signatur ist gewöhnlich mit einer negativen Autokorrelation bei der Verzögerung 1 verbunden - d. h. Es neigt dazu, in Serie, die etwas über differenziert sind entstehen. Der Grund hierfür ist, dass ein MA-Begriff in der Prognosegleichung partiell eine Reihenfolge der Differenzierung aufheben kann. Um dies zu sehen, sei daran erinnert, dass ein ARIMA (0,1,1) Modell ohne Konstante einem Simple Exponential Smoothing Modell entspricht. Die Prognose-Gleichung für dieses Modell ist, wenn der MA (1) - Koeffizient 952 1 der Größe 1 - 945 im SES-Modell entspricht. Wenn 952 1 gleich 1 ist, entspricht dies einem SES-Modell mit 945 0, das nur ein CONSTANT-Modell ist, da die Prognose nie aktualisiert wird. Dies bedeutet, daß, wenn 952 1 gleich 1 ist, tatsächlich die Differenzierungsoperation aufgehoben wird, die gewöhnlich die SES-Prognose ermöglicht, sich bei der letzten Beobachtung wieder zu verankern. Wenn andererseits der gleitende mittlere Koeffizient gleich 0 ist, reduziert sich dieses Modell auf ein zufälliges Wandermodell, d. h. Es lässt den differencing Betrieb allein. Also, wenn 952 1 etwas größer als 0 ist, ist es, als ob wir teilweise eine Reihenfolge der Differenzierung aufheben. Ist die Reihe schon etwas überdifferenziert - d. h. Wenn eine negative Autokorrelation eingeführt wurde -, dann wird es für eine quadratische Abweichung durch eine MA-Signatur aufgehoben. (Im Folgenden finden Sie eine weitere Faustregel: Regel 7: Zeigt der ACF der differenzierten Serie eine Scharfen Cutoff und der Lag-1 Autokorrelation ist negativ --ie Wenn die Reihe etwas quotoverdifferencedquot erscheint - dann erwäge, einen MA-Begriff dem Modell hinzuzufügen. Die Verzögerung, bei der der ACF abschaltet, ist die angegebene Anzahl von MA-Begriffen. Ein Modell für die UNITS-Serie - ARIMA (2,1,0): Bisher haben wir festgestellt, dass die UNITS-Serie (mindestens) eine Reihenfolge der nicht-saisonalen Differenzierung benötigt, um stationär zu sein. Nach der Einnahme eines nicht sonderbaren Unterschieds - d. h. (A) die Korrelation bei Verzögerung 1 ist signifikant und positiv, und (b) zeigt die PACF ein schärferes quadratisches Quadrat an Die ACF. Insbesondere hat die PACF nur zwei signifikante Spitzen, während die ACF vier hat. Somit zeigt die differenzierte Reihe gemäß Regel 7 eine AR (2) Signatur an. Wenn wir also die Ordnung des AR-Termes auf 2 einstellen - d. h. Passen wir ein ARIMA (2,1,0) - Modell an - erhalten wir die folgenden ACF - und PACF-Diagramme für die Residuen: Die Autokorrelation bei den entscheidenden Verzögerungen - nämlich den Verzögerungen 1 und 2 - wurde eliminiert und es gibt kein wahrnehmbares Muster In höherwertigen Verzögerungen. Das Zeitreihenplot der Residuen zeigt eine leicht besorgniserregende Tendenz, vom Mittel wegzuwandern: Der Analysezusammenfassungsbericht zeigt jedoch, dass das Modell im Validierungszeitraum trotzdem sehr gut abläuft, beide AR-Koeffizienten unterscheiden sich signifikant von Null und dem Standard Wurde die Abweichung der Residuen durch die Addition der AR-Terme von 1.54371 auf 1.4215 (nahezu 10) reduziert. Darüber hinaus gibt es keine Anzeichen für eine Quotierung Rootquot, weil die Summe der AR-Koeffizienten (0,2522540.195572) nicht in der Nähe von 1 liegt. (Einheitswurzeln werden unten ausführlicher diskutiert.) Insgesamt scheint dies ein gutes Modell zu sein . Die (untransformierten) Prognosen für das Modell zeigen einen linearen Aufwärtstrend, der in die Zukunft projiziert wird: Der Trend bei den langfristigen Prognosen ist darauf zurückzuführen, dass das Modell eine nicht sonderbare Differenz und einen konstanten Term enthält: Dieses Modell ist im Grunde ein Zufallswanderung Wachstum durch die Addition von zwei autoregressive Begriffe - d. H Zwei Verzögerungen der differenzierten Reihe. Die Steigung der Langzeitprognosen (d. h. der durchschnittliche Anstieg von einer Periode zu einer anderen) ist gleich dem mittleren Term in der Modellzusammenfassung (0,467566). Die Vorhersagegleichung lautet: wobei 956 der konstante Term in der Modellzusammenfassung (0,258178), 981 1 der AR (1) - Koeffizient (0,25224) und 981 2 der AR (2) - Koeffizient (0,1995572) ist. Mittelwert gegen Konstante: Im allgemeinen bezieht sich der Quotientterm in der Ausgabe eines ARIMA-Modells auf den Mittelwert der differenzierten Reihe (dh der mittlere Trend, wenn die Reihenfolge der Differenzierung gleich 1 ist), während der Konstantantquot der konstante Ausdruck ist Auf der rechten Seite der Prognose-Gleichung. Die mittleren und konstanten Terme sind durch die Gleichung: CONSTANT MEAN (1 minus der Summe der AR-Koeffizienten) verknüpft. In diesem Fall haben wir 0.258178 0.467566 (1 - 0.25224 - 0.195572) Alternatives Modell für die UNITS - Serie - ARIMA (0,2,1): Denken Sie daran, dass wir bei der Analyse der UNITS - Serie nicht ganz sicher waren Richtige Reihenfolge der Differenzierung zu verwenden. Eine Reihenfolge der Nichtsaisondifferenzierung ergab die niedrigste Standardabweichung (und ein Muster einer leichten positiven Autokorrelation), während zwei Ordnungen von nicht seasonaler Differenzierung ein eher stationäreres Zeitreihenplot (aber mit ziemlich starker negativer Autokorrelation) ergaben. Hier sind sowohl die ACF und PACF der Serie mit zwei nicht sonderbaren Differenzen: Der einzelne negative Spike bei Lag 1 in der ACF ist eine MA (1) Signatur, gemäß Regel 8 oben. Wenn wir also zwei nicht-seasonale Differenzen verwenden würden, müßten wir auch einen MA (1) - Term enthalten, was ein ARIMA (0,2,1) - Modell ergibt. Gemäß Regel 5 würden wir auch den konstanten Begriff unterdrücken wollen. Hier sind die Ergebnisse der Anpassung eines ARIMA (0,2,1) - Modells ohne Konstante: Beachten Sie, dass die geschätzte Weißabstand-Standardabweichung (RMSE) für dieses Modell nur sehr geringfügig höher ist als die vorherige (1.46301 hier gegenüber 1.45215 vorher). Die Prognose-Gleichung für dieses Modell ist: wobei theta-1 der MA (1) - Koeffizient ist. Es sei daran erinnert, dass dies einem linearen exponentiellen Glättungsmodell ähnlich ist, wobei der MA (1) - Koeffizient der Größe 2 (1-alpha) im LES-Modell entspricht. Der MA (1) - Koeffizient von 0,76 in diesem Modell legt nahe, dass ein LES-Modell mit alpha in der Nähe von 0,72 gleich gut passen würde. Wenn ein LES-Modell an dieselben Daten angepasst wird, erweist sich der optimale Wert von & agr; als ungefähr 0,61, was nicht zu weit weg ist. Hier ist ein Modellvergleichsbericht, der die Ergebnisse der Anpassung des ARIMA (2,1,0) Modells mit Konstante, das ARIMA (0,2,1) Modell ohne Konstante und das LES Modell zeigt: Die drei Modelle sind nahezu identisch Der Schätzzeitraum und das ARIMA-Modell (2,1,0) mit Konstanten etwas besser als die beiden anderen in der Validierungsperiode. Auf der Grundlage dieser statistischen Ergebnisse allein wäre es schwer, zwischen den drei Modellen zu wählen. Wenn wir jedoch die langfristigen Prognosen des ARIMA-Modells (0,2,1) ohne Konstante (die im Wesentlichen dieselben wie die des LES-Modells sind) darstellen, sehen wir einen signifikanten Unterschied zu denen des früheren Modells: Die Prognosen haben einen etwas geringeren Aufwärtstrend als jene des früheren Modells - weil der lokale Trend nahe dem Ende der Serie etwas geringer ist als der durchschnittliche Trend über die ganze Serie -, aber die Konfidenzintervalle weiten sich viel schneller. Das Modell mit zwei Ordnungen der Differenzierung geht davon aus, dass der Trend in der Serie zeitlich variabel ist, daher hält er die ferne Zukunft viel unsicherer als das Modell mit nur einer Ordnung der Differenzierung. Welches Modell wir wählen sollten Das hängt von den Annahmen ab, die wir in Bezug auf die Konstanz des Trendes in den Daten komfortabel machen. Das Modell mit nur einer Ordnung der Differenzierung nimmt einen konstanten durchschnittlichen Trend - es handelt sich im Wesentlichen um ein fein abgestimmtes Zufallsmodell mit Wachstum - und macht daher relativ konservative Trendprojektionen. Es ist auch ziemlich optimistisch über die Genauigkeit, mit der es mehr als eine Periode vorhersagen kann. Das Modell mit zwei Differenzierungsaufträgen nimmt einen zeitlich variierenden lokalen Trend an - es handelt sich im Wesentlichen um ein lineares exponentielles Glättungsmodell - und seine Trendprojektionen sind etwas unbeständiger. Als eine allgemeine Regel in dieser Art von Situation, würde ich empfehlen, die Wahl des Modells mit der niedrigeren Reihenfolge der Differenzierung, andere Dinge sind etwa gleich. In der Praxis scheinen random-walk oder einfach-exponentielle Glättungsmodelle oft besser zu funktionieren als lineare exponentielle Glättungsmodelle. Mixed-Modelle: In den meisten Fällen stellt das beste Modell ein Modell dar, das entweder nur AR-Begriffe oder nur MA-Begriffe verwendet, obwohl in einigen Fällen ein quotiertes Mixedquot-Modell sowohl mit AR - als auch mit MA-Bedingungen die beste Anpassung an die Daten liefern kann. Bei der Montage von gemischten Modellen ist jedoch Vorsicht geboten. Es ist möglich, dass ein AR-Begriff und ein MA-Begriff alle anderen Effekte abbrechen. Obwohl beide in dem Modell signifikant erscheinen können (wie durch die t-Statistik ihrer Koeffizienten beurteilt). Man nehme zum Beispiel an, dass das Modell für eine Zeitreihe ein ARIMA (0,1,1) - Modell ist, sondern ein ARIMA (1,1,2) - Modell - d. h. Sie enthalten einen zusätzlichen AR-Begriff und einen zusätzlichen MA-Begriff. Dann können die zusätzlichen Begriffe am Ende erscheinen erheblich in das Modell, aber im Inneren können sie nur gegeneinander arbeiten. Die resultierenden Parameterschätzungen können zweideutig sein, und der Parameterschätzprozeß kann sehr viele (z. B. mehr als 10) Iterationen zum Konvergieren annehmen. Folglich: Regel 8: Es ist möglich, dass ein AR-Begriff und ein MA-Begriff alle anderen Effekte abbrechen, so dass, wenn ein gemischtes AR-MA-Modell den Daten zu entsprechen scheint, auch ein Modell mit einem weniger AR-Term und einem weniger MA-Begriff versuchen - besonders wenn die Parameterschätzungen im Originalmodell mehr als 10 Iterationen konvergieren müssen. Aus diesem Grund können die ARIMA-Modelle nicht durch einen schrittweisen Ansatz, der sowohl AR - als auch MA-Begriffe umfasst, identifiziert werden. Mit anderen Worten, Sie können nicht beginnen, indem Sie mehrere Begriffe jeder Art und dann werfen die diejenigen, deren geschätzten Koeffizienten sind nicht signifikant. Stattdessen folgen Sie normalerweise einem anfänglichen stepwisequot-Ansatz, indem Sie Begriffe der einen oder anderen Art hinzufügen, wie durch das Auftreten der ACF - und PACF-Diagramme angezeigt wird. Einheitswurzeln: Wenn eine Serie grob unter - oder überdifferenziert ist, d. h. Wenn eine ganze Reihenfolge der Differenzierung hinzugefügt oder annulliert werden muss, wird dies oft durch einen Quototrootquot in den geschätzten AR - oder MA-Koeffizienten des Modells signalisiert. Ein AR (1) - Modell soll eine Einheitswurzel haben, wenn der geschätzte AR (1) - Koeffizient nahezu exakt gleich 1 ist. (Durch quotexaktuelles Gleichheitszeichen I bedeutet wirklich nicht signifikant anders als in den Koeffizienten eigenen Standardfehler. ) Wenn dies geschieht, bedeutet dies, dass der AR (1) - Term genau eine erste Differenz nachahmt, in diesem Fall sollten Sie den AR (1) Term entfernen und stattdessen eine Reihenfolge der Differenzierung hinzufügen. (Dies ist genau das, was passieren würde, wenn Sie ein AR (1) - Modell an die undifferenzierte UNITS-Serie montiert haben, wie bereits erwähnt.) In einem AR-Modell höherer Ordnung existiert ein Einheitswurzel im AR-Teil des Modells, wenn die Summe von Sind die AR-Koeffizienten genau gleich 1. In diesem Fall sollten Sie die Reihenfolge des AR-Terms um 1 reduzieren und eine Reihenfolge der Differenzierung hinzufügen. Eine Zeitreihe mit einer Einheitswurzel in den AR-Koeffizienten ist nichtstationär - i. e. Es braucht eine höhere Reihenfolge der Differenzierung. Regel 9: Wenn es eine Einheit Wurzel in der AR-Teil des Modells - d. H. Wenn die Summe der AR-Koeffizienten fast genau 1 ist, sollten Sie die Anzahl der AR-Terme um eins reduzieren und die Reihenfolge der Differenzierung um eins erhöhen. In ähnlicher Weise bedeutet ein MA (1) - Modell eine Einheitswurzel, wenn der geschätzte MA (1) - Koeffizient genau gleich 1 ist. Wenn dies geschieht, bedeutet dies, daß der MA (1) - Term eine erste Differenz exakt annulliert In diesem Fall sollten Sie den Begriff MA (1) entfernen und auch die Reihenfolge der Differenzierung um eins reduzieren. In einem MA-Modell höherer Ordnung existiert eine Einheitswurzel, wenn die Summe der MA-Koeffizienten exakt gleich 1 ist. Regel 10: Wenn im MA-Teil des Modells ein Einheitswurzel vorhanden ist, d. h. Wenn die Summe der MA-Koeffizienten fast genau 1 ist - sollten Sie die Anzahl der MA-Terme um eins reduzieren und die Reihenfolge der Differenzierung um eins reduzieren. Wenn Sie beispielsweise ein lineares exponentielles Glättungsmodell (ein ARIMA (0,2,2) - Modell) platzieren, wenn ein einfaches exponentielles Glättungsmodell (ein ARIMA (0,1,1) - Modell) ausreichend wäre, können Sie das finden Ist die Summe der beiden MA-Koeffizienten sehr nahezu gleich 1. Durch Verringerung der MA-Ordnung und der Reihenfolge der Differenzierung um eins erhält man das geeignetere SES-Modell. Ein Prognosemodell mit einer Einheitswurzel in den geschätzten MA-Koeffizienten wird als nicht-invertierbar bezeichnet. Was bedeutet, dass die Residuen des Modells nicht als Schätzwerte des quottruequot zufälligen Rauschens betrachtet werden können, das die Zeitreihen erzeugt hat. Ein weiteres Symptom einer Einheit Wurzel ist, dass die Prognosen des Modells kann aufblinken upquot oder anders verhalten bizarr. Wenn das Zeitreihenplot der längerfristigen Prognosen des Modells seltsam aussieht, sollten Sie die geschätzten Koeffizienten Ihres Modells auf das Vorhandensein eines Einheitswurzels überprüfen. Regel 11: Wenn die Langzeitprognosen unregelmäßig oder unbeständig erscheinen, kann es einen Einheitswurzel in den AR - oder MA-Koeffizienten geben. Keines dieser Probleme entstand bei den beiden Modellen, die hier angebracht wurden, weil wir sorgfältig mit plausiblen Ordnungen von Differenzierung und entsprechender Anzahl von AR - und MA-Koeffizienten beginnen, indem wir die ACF - und PACF-Modelle studierten. Detailliertere Diskussionen zu Einheitswurzeln und Annullierungseffekten zwischen AR - und MA-Begriffen finden Sie in der Mathematischen Struktur der ARIMA-Modelle.

No comments:

Post a Comment