Tuesday 21 February 2017

Differenz Zwischen Gleitendem Und Autoregressivem Modell

Was sind Relation und Differenz zwischen Zeitreihen und Regression für Modelle und Annahmen. Ist es richtig, dass die Regressionsmodelle Unabhängigkeit zwischen den Ausgangsvariablen für verschiedene Werte der Eingangsgröße annehmen, während das Zeitreihenmodell nicht Was sind einige andere Unterschiede Es gibt eine Reihe von Ansätzen zur Zeitreihenanalyse, aber die beiden bekanntesten sind die Regression Methode und die Box-Jenkins (1976) oder ARIMA (AutoRegressive Integrated Moving Average) Methode. Dieses Dokument führt die Regressionsmethode ein. Ich halte die Regressionsmethode weit überlegen für ARIMA für drei wichtige Gründe, die ich nicht ganz verstehen, was die Regressionsmethode für Zeitreihen auf der Website ist, und wie es sich von der Box-Jenkins oder ARIMA-Methode unterscheidet. Ich schätze, wenn jemand einige Einblicke auf diesen Fragen geben kann. Danke und Grüße Ich glaube wirklich, das ist eine gute Frage und verdient eine Antwort. Der Link zur Verfügung gestellt wird von einem Psychologen, der behauptet, dass einige home-brew Methode ist eine bessere Art und Weise der Zeitreihe-Analyse als Box-Jenkins ist geschrieben. Ich hoffe, dass mein Versuch, eine Antwort zu ermutigen, andere, die mehr wissen über Zeitreihen sind, dazu beitragen. Aus seiner Einleitung sieht es so aus, als würde Darlington den Ansatz der Anpassung eines AR-Modells durch kleinste Quadrate meistern. Das heißt, wenn Sie das Modell zt alpha1 z cdots alphak z varepsilont an die Zeitreihe zt anpassen wollen, können Sie einfach die Serie zt auf der Serie mit Verzögerung 1, Verzögerung 2 und so weiter bis zu Verzögerung k berechnen Gewöhnlichen multiplen Regression. Dies ist sicherlich erlaubt in R, seine sogar eine Option in der Ar-Funktion. Ich testete es, und es neigt dazu, ähnliche Antworten auf die Standard-Methode für die Anpassung eines AR-Modells in R. Er befürwortet auch regressing zt auf Dinge wie t oder Befugnisse von t, um Trends zu finden. Auch dies ist absolut in Ordnung. Viele Zeitreihen besprechen dies, zum Beispiel Shumway-Stoffer und Cowpertwait-Metcalfe. Typischerweise kann eine Zeitreihenanalyse entlang der folgenden Linien verlaufen: Sie finden einen Trend, entfernen Sie ihn, passen Sie dann ein Modell an die Residuen an. Aber es scheint, wie er auch befürwortet über-Anpassung und dann mit der Verringerung der Mittel-quadratischen Fehler zwischen der eingebauten Serie und die Daten als Beweis dafür, dass seine Methode besser ist. Zum Beispiel: Ich fühle mich korrektrams sind jetzt veraltet. Ihr primärer Zweck war, den Arbeitnehmern zu ermöglichen, zu erraten, welche Modelle am besten zu den Daten passen, aber die Geschwindigkeit der modernen Computer (zumindest in der Regression, wenn nicht in der Zeitreihenmodell-Anpassung) ermöglicht es einem Arbeiter, einfach mehrere Modelle zu passen und genau zu sehen, wie Jeder passt, wie durch mittleren quadratischen Fehler gemessen. Die Frage der Kapitalisierung nach Zufall ist für diese Wahl nicht relevant, da beide Methoden für dieses Problem gleichermaßen anfällig sind. Dies ist keine gute Idee, weil der Test eines Modells soll, wie gut es prognostizieren kann, nicht, wie gut es passt die vorhandenen Daten. In seinen drei Beispielen verwendet er einen angepassten Mittelwertquadratfehler als Kriterium für die Qualität der Passform. Natürlich wird die Übermodellierung eines Modells eine In-Sample-Schätzung des Fehlers kleiner machen, so dass seine Behauptung, dass seine Modelle besser sind, weil sie weniger RMSE haben, falsch ist. Kurzum, da er das falsche Kriterium für die Beurteilung, wie gut ein Modell ist, verwendet, erreicht er die falschen Schlüsse über die Regression gegen ARIMA. Id wetten, dass, wenn er die prädiktive Fähigkeit der Modelle statt getestet hätte, wäre ARIMA auf die Spitze kommen. Vielleicht kann jemand es versuchen, wenn sie Zugang zu den Büchern haben, die er hier erwähnt. Ergänzend: Für mehr über die Regression Idee, möchten Sie vielleicht auschecken ältere Zeitreihen Bücher, die geschrieben wurden, bevor ARIMA wurde die beliebteste. Zum Beispiel, Kendall, Time-Series. 1973, Kapitel 11 hat ein ganzes Kapitel über diese Methode und Vergleiche mit ARIMA. Soweit ich sagen kann, hat der Autor in einer Peer-Review-Publikation seine Home-Brew-Methode nie beschrieben und Verweise auf und aus der statistischen Literatur erscheinen minimal und seine Hauptpublikationen zu methodischen Themen reichen bis in die 70er Jahre zurück. Streng genommen, nichts davon beweist alles, aber ohne genügend Zeit oder Sachkenntnis, um die Ansprüche selbst zu beurteilen, würde ich extrem widerwillig sein, irgendwelche von ihr zu verwenden. Ndash Gala Jul-13 13 um 11: 31Identifizieren der Anzahl von AR - oder MA-Terme in einem ARIMA-Modell ACF - und PACF-Plots: Nachdem eine Zeitreihe durch Differenzieren stationarisiert worden ist, ist der nächste Schritt beim Anpassen eines ARIMA-Modells zu bestimmen, ob AR oder MA Um die Autokorrelation zu korrigieren, die in der differenzierten Reihe verbleibt. Natürlich, mit Software wie Statgraphics, könnten Sie nur versuchen, einige verschiedene Kombinationen von Begriffen und sehen, was am besten funktioniert. Aber es gibt einen systematischeren Weg, dies zu tun. Durch Betrachten der Autokorrelationsfunktion (ACF) und partiellen Autokorrelations - (PACF-) Plots der differenzierten Serien können Sie die Anzahl der benötigten AR - und MA-Terme vorläufig identifizieren. Sie sind bereits mit dem ACF-Diagramm vertraut: Es ist nur ein Balkendiagramm der Koeffizienten der Korrelation zwischen einer Zeitreihe und Verzögerungen von sich selbst. Das PACF-Diagramm ist ein Diagramm der partiellen Korrelationskoeffizienten zwischen der Reihe und den Verzögerungen von sich selbst. Im allgemeinen ist die Quotientquot-Korrelation zwischen zwei Variablen der Betrag der Korrelation zwischen ihnen, der nicht durch ihre gegenseitigen Korrelationen mit einem bestimmten Satz von anderen Variablen erklärt wird. Wenn wir z. B. eine Variable Y auf andere Variablen X1, X2 und X3 zurückrechnen, ist die partielle Korrelation zwischen Y und X3 der Betrag der Korrelation zwischen Y und X3, der nicht durch ihre gemeinsamen Korrelationen mit X1 und X2 erklärt wird. Diese partielle Korrelation kann als Quadratwurzel der Abweichung berechnet werden, die durch Addition von X3 an die Regression von Y auf X1 und X2 erreicht wird. Eine partielle Autokorrelation ist die Größe der Korrelation zwischen einer Variablen und einer Verzögerung von sich, die nicht durch Korrelationen bei allen niedrigeren Ordnungsschichten erklärt wird. Die Autokorrelation einer Zeitreihe Y bei der Verzögerung 1 ist der Koeffizient der Korrelation zwischen Y t und Y t - 1. Was vermutlich auch die Korrelation zwischen Y t -1 und Y t -2 ist. Aber wenn Y t mit Y t -1 korreliert. Und Y t -1 ist gleich mit Y t -2 korreliert. Dann sollten wir auch erwarten, Korrelation zwischen Y t und Y t-2 zu finden. Tatsächlich ist die Korrelationsmenge, die wir bei der Verzögerung 2 erwarten sollten, genau das Quadrat der Lag-1-Korrelation. Folglich propagiert die Korrelation bei Verzögerung 1 eine Verzögerung 2 und vermutlich zu Verzögerungen höherer Ordnung. Die partielle Autokorrelation bei Verzögerung 2 ist daher die Differenz zwischen der tatsächlichen Korrelation bei Verzögerung 2 und der erwarteten Korrelation aufgrund der Ausbreitung der Korrelation bei Verzögerung 1. Hier ist die Autokorrelationsfunktion (ACF) der UNITS-Reihe, bevor irgendeine Differenzierung durchgeführt wird: Die Autokorrelationen sind für eine große Anzahl von Verzögerungen signifikant, aber vielleicht sind die Autokorrelationen bei den Verzögerungen 2 und höher lediglich auf die Ausbreitung der Autokorrelation bei Verzögerung 1 zurückzuführen. Dies wird durch die PACF-Kurve bestätigt: Es ist zu beachten, daß die PACF-Kurve signifikant ist Spike nur bei Verzögerung 1, was bedeutet, dass alle Autokorrelationen höherer Ordnung effektiv durch die Lag-1-Autokorrelation erklärt werden. Die partiellen Autokorrelationen bei allen Verzögerungen können durch Anpassen einer Folge autoregressiver Modelle mit zunehmender Anzahl von Verzögerungen berechnet werden. Insbesondere ist die partielle Autokorrelation bei Verzögerung k gleich dem geschätzten AR (k) - Koeffizienten in einem autoregressiven Modell mit k Terme - d. e. Ein Multiregressionsmodell, bei dem Y auf LAG (Y, 1), LAG (Y, 2) usw. bis zu LAG (Y, k) zurückgerechnet wird. Somit können Sie durch bloße Inspektion der PACF bestimmen, wie viele AR-Begriffe Sie verwenden müssen, um das Autokorrelationsmuster in einer Zeitreihe zu erläutern: Wenn die partielle Autokorrelation bei einer Verzögerung k signifikant ist und bei einer höheren Ordnung nicht signifikant ist - d. h. Wenn die PACF-Abkürzung offquot bei Verzögerung k - dann schlägt dies vor, Sie sollten versuchen, Montage eines autoregressiven Modells der Ordnung k Die PACF der UNITS-Serie bietet ein extremes Beispiel für die Cut-off-Phänomen: es hat eine sehr große Spitze bei Verzögerung 1 Und keine anderen signifikanten Spitzen, was anzeigt, dass in Abwesenheit der Differenzierung ein AR (1) - Modell verwendet werden sollte. Jedoch wird sich der AR (1) - Term in diesem Modell als äquivalent zu einer ersten Differenz erweisen, da der geschätzte AR (1) - Koeffizient (der die Höhe der PACF-Spitze bei der Verzögerung 1 ist) nahezu genau gleich 1 ist Die Prognose-Gleichung für ein AR (1) - Modell für eine Reihe Y ohne Abweichungsreihenfolge lautet: Ist der AR (1) - Koeffizient 981 1 in dieser Gleichung gleich 1, so ist dies gleichbedeutend mit der Vorhersage, daß die erste Differenz Von Y konstant ist Es ist gleichbedeutend mit der Gleichung des Zufalls-Wandermodells mit Wachstum: Die PACF der UNITS-Reihe sagt uns, dass, wenn wir es nicht unterscheiden, dann sollten wir ein AR (1) - Modell passen, das sich als äquivalent zum Nehmen eignet Eine erste Differenz. Mit anderen Worten, es sagt uns, dass UNITS wirklich eine Ordnung der Differenzierung benötigt, um stationär zu sein. AR - und MA-Signaturen: Wenn die PACF einen scharfen Cutoff zeigt, während der ACF langsamer abnimmt (dh signifikante Spikes bei höheren Lags), dann sagen wir, dass die stationäre Serie eine Zehnsignatur aufweist, was bedeutet, dass das Autokorrelationsmuster leichter erklärt werden kann Durch Hinzufügen von AR-Terme als durch Hinzufügen von MA-Terme. Sie werden wahrscheinlich feststellen, dass eine AR-Signatur gewöhnlich mit einer positiven Autokorrelation bei Verzögerung 1 verbunden ist - d. h. Es neigt dazu, in Serie, die leicht unter differenziert auftreten. Der Grund dafür ist, dass ein AR-Term wie eine partielle Differentialquot in der Prognosegleichung agieren kann. Beispielsweise wirkt der AR-Term in einem AR (1) - Modell wie eine erste Differenz, wenn der autoregressive Koeffizient gleich 1 ist, er tut nichts, wenn der autoregressive Koeffizient null ist, und er wirkt wie eine partielle Differenz, wenn der Koeffizient dazwischen liegt 0 und 1. Also, wenn die Reihe etwas unterdifferenziert ist - dh Wenn das nichtstationäre Muster der positiven Autokorrelation nicht vollständig eliminiert worden ist, wird es eine Teilsumme für eine Teildifferenz durch Anzeige einer AR-Signatur zustellen. Folglich haben wir die folgende Faustregel, um festzustellen, wann man AR-Begriffe hinzufügen soll: Regel 6: Wenn die PACF der differenzierten Reihe einen scharfen Cutoff aufweist unddie Lag-1-Autokorrelation positiv ist - i. e. Wenn die Serie etwas quadratisch unterschieden wird, dann erwägen Sie, dem Modell einen AR-Term hinzuzufügen. Die Verzögerung, bei der die PACF abschaltet, ist die angegebene Anzahl von AR-Terme. Grundsätzlich kann jedes Autokorrelationsmuster aus einer stationären Reihe entfernt werden, indem genügend autoregressive Terme (Verzögerungen der stationären Reihe) zu der Vorhersagegleichung hinzugefügt werden, und die PACF teilt Ihnen mit, wie viele dieser Ausdrücke wahrscheinlich benötigt werden. Dies ist jedoch nicht immer der einfachste Weg, um ein gegebenes Muster der Autokorrelation zu erklären: Manchmal ist es effizienter, MA-Bedingungen (Verzögerungen der Prognosefehler) hinzuzufügen. Die Autokorrelationsfunktion (ACF) spielt dieselbe Rolle für MA-Terme, die die PACF für AR-Terme spielt - das heißt, der ACF teilt Ihnen mit, wie viele MA-Bedingungen benötigt werden, um die verbleibende Autokorrelation aus den differenzierten Serien zu entfernen. Wenn die Autokorrelation bei Verzögerung k aber nicht bei höheren Verzögerungen signifikant ist, d. h. Wenn die ACF-Abkürzungen offquot bei Verzögerung k - dies zeigt, dass genau k MA-Terme in der Prognosegleichung verwendet werden sollten. Im letzteren Fall sagen wir, daß die Stationarisierte Reihe eine Signatur von "Signatur" aufweist, was bedeutet, daß das Autokorrelationsmuster durch Hinzufügen von MA-Terme leichter erklärt werden kann als durch Hinzufügen von AR-Terme. Eine MA-Signatur ist üblicherweise mit einer negativen Autokorrelation bei der Verzögerung 1 verbunden - d. h. Es neigt dazu, in Serie, die etwas über differenziert sind entstehen. Der Grund hierfür ist, dass ein MA-Begriff in der Prognosegleichung partiell eine Reihenfolge der Differenzierung aufheben kann. Um dies zu sehen, sei daran erinnert, dass ein ARIMA (0,1,1) Modell ohne Konstante einem Simple Exponential Smoothing Modell entspricht. Die Prognose-Gleichung für dieses Modell ist, wenn der MA (1) - Koeffizient 952 1 der Größe 1 - 945 im SES-Modell entspricht. Wenn 952 1 gleich 1 ist, entspricht dies einem SES-Modell mit 945 0, das nur ein CONSTANT-Modell ist, da die Prognose nie aktualisiert wird. Dies bedeutet, daß, wenn 952 1 gleich 1 ist, tatsächlich die Differenzierungsoperation aufgehoben wird, die gewöhnlich die SES-Prognose ermöglicht, sich bei der letzten Beobachtung wieder zu verankern. Wenn andererseits der gleitende mittlere Koeffizient gleich 0 ist, reduziert sich dieses Modell auf ein zufälliges Wandermodell, d. h. Es lässt den differencing Betrieb allein. Also, wenn 952 1 etwas größer als 0 ist, ist es, als ob wir teilweise eine Reihenfolge der Differenzierung aufheben. Ist die Reihe schon etwas überdifferenziert - d. h. Wenn eine negative Autokorrelation eingeführt wurde -, dann wird es für eine quadratische Abweichung durch eine MA-Signatur aufgehoben. (Im Folgenden wird eine weitere Faustregel aufgeführt: Regel 7: Wenn der ACF der differenzierten Serie a. Zeigt, dass der ACF der differenzierten Serie a Scharfen Cutoff und der Lag-1 Autokorrelation ist negativ --ie Wenn die Reihe etwas quotoverdifferencedquot erscheint - dann erwäge, einen MA-Begriff dem Modell hinzuzufügen. Die Verzögerung, bei der der ACF abschaltet, ist die angegebene Anzahl von MA-Begriffen. Ein Modell für die UNITS-Serie - ARIMA (2,1,0): Bisher haben wir festgestellt, dass die UNITS-Serie (mindestens) eine Reihenfolge der nicht-saisonalen Differenzierung benötigt, um stationär zu sein. Nach der Einnahme eines nicht sonderbaren Unterschieds - d. h. (A) die Korrelation bei Verzögerung 1 ist signifikant und positiv, und (b) zeigt die PACF ein schärferes quadratisches Quadrat an Die ACF. Insbesondere hat die PACF nur zwei signifikante Spitzen, während die ACF vier hat. Somit zeigt die differenzierte Reihe gemäß Regel 7 eine AR (2) Signatur an. Wenn wir also die Ordnung des AR-Termes auf 2 einstellen - d. h. Passen wir ein ARIMA (2,1,0) - Modell an - erhalten wir die folgenden ACF - und PACF-Diagramme für die Residuen: Die Autokorrelation bei den entscheidenden Verzögerungen - nämlich den Verzögerungen 1 und 2 - wurde eliminiert und es gibt kein wahrnehmbares Muster In höherwertigen Verzögerungen. Das Zeitreihenplot der Residuen zeigt eine leicht besorgniserregende Tendenz, vom Mittel wegzuwandern: Der Analysezusammenfassungsbericht zeigt jedoch, dass das Modell im Validierungszeitraum trotzdem sehr gut abläuft, beide AR-Koeffizienten unterscheiden sich signifikant von Null und dem Standard Wurde die Abweichung der Residuen durch die Addition der AR-Terme von 1.54371 auf 1.4215 (nahezu 10) reduziert. Darüber hinaus gibt es keine Anzeichen für eine Quotierung Rootquot, weil die Summe der AR-Koeffizienten (0,2522540.195572) nicht in der Nähe von 1 liegt. (Einheitswurzeln werden unten ausführlicher diskutiert.) Insgesamt scheint dies ein gutes Modell zu sein . Die (untransformierten) Prognosen für das Modell zeigen einen linearen Aufwärtstrend, der in die Zukunft projiziert wird: Der Trend bei den langfristigen Prognosen ist darauf zurückzuführen, dass das Modell eine nicht sonderbare Differenz und einen konstanten Term enthält: Dieses Modell ist im Grunde ein Zufallswanderung Wachstum durch die Addition von zwei autoregressive Begriffe - d. H Zwei Verzögerungen der differenzierten Reihe. Die Steigung der Langzeitprognosen (d. h. der durchschnittliche Anstieg von einer Periode zu einer anderen) ist gleich dem mittleren Term in der Modellzusammenfassung (0,467566). Die Vorhersagegleichung lautet: wobei 956 der konstante Term in der Modellzusammenfassung (0,258178), 981 1 der AR (1) - Koeffizient (0,25224) und 981 2 der AR (2) - Koeffizient (0,1995572) ist. Mittelwert gegen Konstante: Im allgemeinen bezieht sich der Quotientterm in der Ausgabe eines ARIMA-Modells auf den Mittelwert der differenzierten Reihe (dh der mittlere Trend, wenn die Reihenfolge der Differenzierung gleich 1 ist), während der Konstantantquot der konstante Ausdruck ist Auf der rechten Seite der Prognose-Gleichung. Die mittleren und konstanten Terme sind durch die Gleichung: CONSTANT MEAN (1 minus der Summe der AR-Koeffizienten) verknüpft. In diesem Fall haben wir 0.258178 0.467566 (1 - 0.25224 - 0.195572) Alternatives Modell für die UNITS - Serie - ARIMA (0,2,1): Denken Sie daran, dass wir bei der Analyse der UNITS - Serie nicht ganz sicher waren Richtige Reihenfolge der Differenzierung zu verwenden. Eine Reihenfolge der Nichtsaisondifferenzierung ergab die niedrigste Standardabweichung (und ein Muster einer leichten positiven Autokorrelation), während zwei Ordnungen von nicht seasonaler Differenzierung ein eher stationäreres Zeitreihenplot (aber mit ziemlich starker negativer Autokorrelation) ergaben. Hier sind sowohl die ACF und PACF der Serie mit zwei nicht sonderbaren Differenzen: Der einzelne negative Spike bei Lag 1 in der ACF ist eine MA (1) Signatur, gemäß Regel 8 oben. Wenn wir also zwei nicht-seasonale Differenzen verwenden würden, müßten wir auch einen MA (1) - Term enthalten, was ein ARIMA (0,2,1) - Modell ergibt. Gemäß Regel 5 würden wir auch den konstanten Begriff unterdrücken wollen. Hier sind die Ergebnisse der Anpassung eines ARIMA (0,2,1) - Modells ohne Konstante: Beachten Sie, dass die geschätzte Weißabstand-Standardabweichung (RMSE) für dieses Modell nur sehr geringfügig höher ist als die vorherige (1.46301 hier gegenüber 1.45215 vorher). Die Prognose-Gleichung für dieses Modell ist: wobei theta-1 der MA (1) - Koeffizient ist. Es sei daran erinnert, dass dies einem linearen exponentiellen Glättungsmodell ähnlich ist, wobei der MA (1) - Koeffizient der Größe 2 (1-alpha) im LES-Modell entspricht. Der MA (1) - Koeffizient von 0,76 in diesem Modell deutet darauf hin, dass ein LES-Modell mit alpha in der Nähe von 0,72 würde gleich gut passen. Wenn ein LES-Modell an dieselben Daten angepasst wird, erweist sich der optimale Wert von & agr; als ungefähr 0,61, was nicht zu weit weg ist. Hier ist ein Modellvergleichsbericht, der die Ergebnisse der Anpassung des ARIMA (2,1,0) Modells mit Konstante, das ARIMA (0,2,1) Modell ohne Konstante und das LES Modell zeigt: Die drei Modelle sind nahezu identisch Der Schätzzeitraum und das ARIMA-Modell (2,1,0) mit Konstanten etwas besser als die beiden anderen in der Validierungsperiode. Auf der Grundlage dieser statistischen Ergebnisse allein wäre es schwer, zwischen den drei Modellen zu wählen. Wenn wir jedoch die langfristigen Prognosen des ARIMA-Modells (0,2,1) ohne Konstante (die im Wesentlichen dieselben wie die des LES-Modells sind) darstellen, sehen wir einen signifikanten Unterschied zu denen des früheren Modells: Die Prognosen haben einen etwas geringeren Aufwärtstrend als jene des früheren Modells - weil der lokale Trend nahe dem Ende der Serie etwas geringer ist als der durchschnittliche Trend über die ganze Serie -, aber die Vertrauensintervalle weiten sich viel schneller. Das Modell mit zwei Ordnungen der Differenzierung geht davon aus, dass der Trend in der Serie zeitlich variabel ist, daher hält er die ferne Zukunft viel unsicherer als das Modell mit nur einer Ordnung der Differenzierung. Welches Modell wir wählen sollten Das hängt von den Annahmen ab, die wir in Bezug auf die Konstanz des Trendes in den Daten komfortabel machen. Das Modell mit nur einer Ordnung der Differenzierung nimmt einen konstanten durchschnittlichen Trend - es handelt sich im Wesentlichen um ein fein abgestimmtes Zufallsmodell mit Wachstum - und macht daher relativ konservative Trendprojektionen. Es ist auch ziemlich optimistisch über die Genauigkeit, mit der es mehr als eine Periode vorhersagen kann. Das Modell mit zwei Differenzierungsaufträgen nimmt einen zeitlich variierenden lokalen Trend an - es handelt sich im Wesentlichen um ein lineares exponentielles Glättungsmodell - und seine Trendprojektionen sind etwas unbeständiger. Als eine allgemeine Regel in dieser Art von Situation, würde ich empfehlen, die Wahl des Modells mit der niedrigeren Reihenfolge der Differenzierung, andere Dinge sind etwa gleich. In der Praxis scheinen random-walk oder einfach-exponentielle Glättungsmodelle oft besser zu funktionieren als lineare exponentielle Glättungsmodelle. Mixed-Modelle: In den meisten Fällen stellt das beste Modell ein Modell dar, das entweder nur AR-Begriffe oder nur MA-Begriffe verwendet, obwohl in einigen Fällen ein quotiertes Mixedquot-Modell sowohl mit AR - als auch mit MA-Bedingungen die beste Anpassung an die Daten liefern kann. Bei der Montage von gemischten Modellen ist jedoch Vorsicht geboten. Es ist möglich, dass ein AR-Begriff und ein MA-Begriff alle anderen Effekte abbrechen. Obwohl beide in dem Modell signifikant erscheinen können (wie durch die t-Statistik ihrer Koeffizienten beurteilt). Man nehme zum Beispiel an, dass das Modell für eine Zeitreihe ein ARIMA (0,1,1) - Modell ist, sondern ein ARIMA (1,1,2) - Modell - d. h. Sie enthalten einen zusätzlichen AR-Begriff und einen zusätzlichen MA-Begriff. Dann können die zusätzlichen Begriffe am Ende erscheinen erheblich in das Modell, aber im Inneren können sie nur gegeneinander arbeiten. Die resultierenden Parameterschätzungen können zweideutig sein, und der Parameterschätzprozeß kann sehr viele (z. B. mehr als 10) Iterationen zum Konvergieren annehmen. Folglich: Regel 8: Es ist möglich, dass ein AR-Begriff und ein MA-Begriff alle anderen Effekte abbrechen, so dass, wenn ein gemischtes AR-MA-Modell den Daten zu entsprechen scheint, auch ein Modell mit einem weniger AR-Term und einem weniger MA-Begriff versuchen - besonders wenn die Parameterschätzungen im Originalmodell mehr als 10 Iterationen konvergieren müssen. Aus diesem Grund können die ARIMA-Modelle nicht durch einen schrittweisen Ansatz, der sowohl AR - als auch MA-Begriffe umfasst, identifiziert werden. Mit anderen Worten, Sie können nicht beginnen, indem Sie mehrere Begriffe jeder Art und dann werfen die diejenigen, deren geschätzten Koeffizienten sind nicht signifikant. Stattdessen folgen Sie normalerweise einem anfänglichen Stepwisequot-Ansatz und fügen Begriffe der einen oder anderen Art hinzu, wie durch das Auftreten der ACF - und PACF-Diagramme angezeigt. Einheitswurzeln: Wenn eine Serie grob unter - oder überdifferenziert ist, d. h. Wenn eine ganze Reihenfolge der Differenzierung hinzugefügt oder annulliert werden muss, wird dies oft durch einen Quototrootquot in den geschätzten AR - oder MA-Koeffizienten des Modells signalisiert. Ein AR (1) - Modell soll eine Einheitswurzel haben, wenn der geschätzte AR (1) - Koeffizient nahezu exakt gleich 1 ist. (Durch quotexaktuelles Gleichheitszeichen I bedeutet wirklich nicht signifikant anders als in den Koeffizienten eigenen Standardfehler. ) Wenn dies geschieht, bedeutet dies, dass der AR (1) Term genau imitiert eine erste Differenz, in diesem Fall sollten Sie den AR (1) Begriff entfernen und fügen Sie eine Reihenfolge der differencing statt. (Dies ist genau das, was passieren würde, wenn Sie ein AR (1) - Modell an die undifferenzierte UNITS-Serie montiert haben, wie bereits erwähnt.) In einem AR-Modell höherer Ordnung existiert ein Einheitswurzel im AR-Teil des Modells, wenn die Summe von Sind die AR-Koeffizienten genau gleich 1. In diesem Fall sollten Sie die Reihenfolge des AR-Terms um 1 reduzieren und eine Reihenfolge der Differenzierung hinzufügen. Eine Zeitreihe mit einer Einheitswurzel in den AR-Koeffizienten ist nichtstationär - i. e. Es braucht eine höhere Reihenfolge der Differenzierung. Regel 9: Wenn es eine Einheit Wurzel in der AR-Teil des Modells - d. H. Wenn die Summe der AR-Koeffizienten fast genau 1 ist, sollten Sie die Anzahl der AR-Terme um eins reduzieren und die Reihenfolge der Differenzierung um eins erhöhen. In ähnlicher Weise bedeutet ein MA (1) - Modell eine Einheitswurzel, wenn der geschätzte MA (1) - Koeffizient genau gleich 1 ist. Wenn dies geschieht, bedeutet dies, daß der MA (1) - Term eine erste Differenz exakt annulliert In diesem Fall sollten Sie den Begriff MA (1) entfernen und auch die Reihenfolge der Differenzierung um eins reduzieren. In einem MA-Modell höherer Ordnung existiert eine Einheitswurzel, wenn die Summe der MA-Koeffizienten exakt gleich 1 ist. Regel 10: Besteht im MA-Teil des Modells eine Einheitswurzel, d. h. Wenn die Summe der MA-Koeffizienten fast genau 1 ist - sollten Sie die Anzahl der MA-Terme um eins reduzieren und die Reihenfolge der Differenzierung um eins reduzieren. Wenn Sie beispielsweise ein lineares exponentielles Glättungsmodell (ein ARIMA (0,2,2) - Modell) platzieren, wenn ein einfaches exponentielles Glättungsmodell (ein ARIMA (0,1,1) - Modell) ausreichend wäre, können Sie das finden Ist die Summe der beiden MA-Koeffizienten sehr nahezu gleich 1. Durch Verringerung der MA-Ordnung und der Reihenfolge der Differenzierung um eins erhält man das geeignetere SES-Modell. Ein Prognosemodell mit einer Einheitswurzel in den geschätzten MA-Koeffizienten wird als nicht-invertierbar bezeichnet. Was bedeutet, dass die Residuen des Modells nicht als Schätzwerte des quottruequot zufälligen Rauschens betrachtet werden können, das die Zeitreihen erzeugt hat. Ein weiteres Symptom einer Einheit Wurzel ist, dass die Prognosen des Modells kann aufblinken upquot oder sonst verhalten bizarr. Wenn das Zeitreihenplot der längerfristigen Prognosen des Modells seltsam aussieht, sollten Sie die geschätzten Koeffizienten Ihres Modells auf das Vorhandensein eines Einheitswurzels überprüfen. Regel 11: Wenn die Langzeitprognosen unregelmäßig oder unbeständig erscheinen, kann es einen Einheitswurzel in den AR - oder MA-Koeffizienten geben. Keines dieser Probleme entstand bei den beiden Modellen, die hier angebracht wurden, weil wir sorgfältig mit plausiblen Ordnungen von differencing und entsprechender Anzahl von AR - und MA-Koeffizienten beginnen, indem wir die ACF - und PACF-Modelle studierten. Detaillierte Erläuterungen zu Einheitswurzeln und Annullierungseffekten zwischen AR - und MA-Begriffen finden Sie in der mathematischen Struktur der ARIMA-Modelle. Einführung in ARIMA: Nichtseasonalmodelle ARIMA (p, d, q) Prognose der Gleichung: ARIMA-Modelle sind theoretisch, Die allgemeinste Klasse von Modellen zur Prognose einer Zeitreihe, die durch Differenzierung (falls nötig), möglicherweise in Verbindung mit nichtlinearen Transformationen, wie etwa Protokollierung oder Abscheidung (falls erforderlich), 8220 stationär gemacht werden kann8221. Eine Zufallsvariable, die eine Zeitreihe ist, ist stationär, wenn ihre statistischen Eigenschaften alle über die Zeit konstant sind. Eine stationäre Reihe hat keinen Trend, ihre Variationen um ihren Mittelwert haben eine konstante Amplitude, und sie wackelt in einer konsistenten Weise. D. h. seine kurzzeitigen Zufallszeitmuster sehen immer im statistischen Sinne gleich aus. Die letztgenannte Bedingung bedeutet, daß ihre Autokorrelationen (Korrelationen mit ihren eigenen vorherigen Abweichungen vom Mittelwert) über die Zeit konstant bleiben oder daß ihr Leistungsspektrum über die Zeit konstant bleibt. Eine zufällige Variable dieser Form kann (wie üblich) als eine Kombination von Signal und Rauschen betrachtet werden, und das Signal (wenn eines offensichtlich ist) könnte ein Muster einer schnellen oder langsamen mittleren Reversion oder einer sinusförmigen Oszillation oder eines schnellen Wechsels im Vorzeichen sein , Und es könnte auch eine saisonale Komponente. Ein ARIMA-Modell kann als ein 8220filter8221 betrachtet werden, der versucht, das Signal vom Rauschen zu trennen, und das Signal wird dann in die Zukunft extrapoliert, um Prognosen zu erhalten. Die ARIMA-Vorhersagegleichung für eine stationäre Zeitreihe ist eine lineare Gleichung (d. H. Regressionstyp), bei der die Prädiktoren aus Verzögerungen der abhängigen Variablen und oder Verzögerungen der Prognosefehler bestehen. Das heißt: Vorhergesagter Wert von Y eine Konstante undeine gewichtete Summe aus einem oder mehreren neuen Werten von Y und einer gewichteten Summe aus einem oder mehreren neuen Werten der Fehler. Wenn die Prädiktoren nur aus verzögerten Werten von Y bestehen, handelt es sich um ein reines autoregressives Modell (8220 selbst-regressed8221), das nur ein Spezialfall eines Regressionsmodells ist und mit einer Standard-Regressions-Software ausgestattet werden kann. Beispielsweise ist ein autoregressives Modell erster Ordnung (8220AR (1) 8221) für Y ein einfaches Regressionsmodell, bei dem die unabhängige Variable nur um eine Periode (LAG (Y, 1) in Statgraphics oder YLAG1 in RegressIt) verzögert ist. Wenn einige der Prädiktoren Verzögerungen der Fehler sind, handelt es sich bei einem ARIMA-Modell nicht um ein lineares Regressionsmodell, da es keine Möglichkeit gibt, 8220last period8217s error8221 als eine unabhängige Variable festzulegen: Die Fehler müssen auf einer Periodenperiode berechnet werden Wenn das Modell an die Daten angepasst ist. Aus technischer Sicht ist das Problem der Verwendung von verzögerten Fehlern als Prädiktoren, dass die Vorhersagen von model8217s keine linearen Funktionen der Koeffizienten sind. Obwohl es sich um lineare Funktionen der vergangenen Daten handelt. Daher müssen Koeffizienten in ARIMA-Modellen, die verzögerte Fehler enthalten, durch nichtlineare Optimierungsmethoden (8220hill-climbing8221) abgeschätzt werden, anstatt nur ein Gleichungssystem zu lösen. Das Akronym ARIMA steht für Auto-Regressive Integrated Moving Average. Verzögerungen der stationären Reihe in der Prognose-Gleichung werden als autoregressiveQuot-Terme bezeichnet, die Verzögerungen der Prognosefehler werden als mittlere mittlere quot-Terme bezeichnet, und eine Zeitreihe, die differenziert werden muß, um stationär gemacht zu werden, wird als eine integrierte quotierte Version einer stationären Reihe bezeichnet. Random-walk und random-trend Modelle, autoregressive Modelle und exponentielle Glättungsmodelle sind alle Sonderfälle von ARIMA Modellen. Ein nicht seasonales ARIMA-Modell wird als ein quotarIMA-Modell (p, d, q) klassifiziert, wobei p die Anzahl der autoregressiven Terme ist, d die Anzahl der für die Stationarität benötigten Nicht-Seasonal-Differenzen und q die Anzahl der verzögerten Prognosefehler ist Die Vorhersagegleichung. Die Vorhersagegleichung ist wie folgt aufgebaut. Zuerst bezeichne y die d - te Differenz von Y. Das bedeutet, daß die zweite Differenz von Y (der Fall d2) nicht die Differenz von 2 Perioden ist. Es ist vielmehr die erste Differenz der ersten Differenz. Was das diskrete Analogon einer zweiten Ableitung ist, d. h. die lokale Beschleunigung der Reihe anstatt ihres lokalen Takts. In Bezug auf y. Ist die allgemeine Prognose-Gleichung: Hier sind die gleitenden Durchschnittsparameter (9528217s) so definiert, daß ihre Vorzeichen in der Gleichung negativ sind, und zwar nach der Konvention von Box und Jenkins. Einige Autoren und Software (einschließlich der Programmiersprache R) definieren sie so, dass sie stattdessen Pluszeichen haben. Wenn tatsächliche Zahlen in die Gleichung gesteckt werden, gibt es keine Mehrdeutigkeit, aber es ist wichtig zu wissen, welche Konvention Ihre Software verwendet, wenn Sie die Ausgabe lesen. Oft werden dort die Parameter mit AR (1), AR (2), 8230 und MA (1), MA (2), 8230 usw. bezeichnet. Um das entsprechende ARIMA-Modell für Y zu identifizieren, beginnt man die Reihenfolge der Differenzierung zu bestimmen (D) Notwendigkeit, die Serie zu stationarisieren und die Brutto-Merkmale der Saisonalität zu entfernen, möglicherweise in Verbindung mit einer variationsstabilisierenden Transformation, wie z. B. Protokollierung oder Entleerung. Wenn Sie an diesem Punkt anhalten und voraussagen, dass die differenzierten Serien konstant sind, haben Sie lediglich ein zufälliges oder zufälliges Trendmodell angebracht. Die stationäre Reihe kann jedoch weiterhin autokorrelierte Fehler aufweisen, was nahe legt, daß in der Vorhersagegleichung auch einige Anzahl von AR-Terme (p 8805 1) und einige MA-MA-Terme (q 8805 1) benötigt werden. Der Prozess der Bestimmung der Werte von p, d und q, die für eine gegebene Zeitreihe am besten sind, werden in späteren Abschnitten der Notizen (deren Links oben auf dieser Seite sind), aber eine Vorschau von einigen der Typen erörtert Von nicht-saisonalen ARIMA-Modellen, die üblicherweise angetroffen werden, ist unten angegeben. ARIMA (1,0,0) erstes autoregressives Modell: Wenn die Serie stationär und autokorreliert ist, kann sie vielleicht als ein Vielfaches ihres eigenen vorherigen Wertes plus einer Konstante vorhergesagt werden. Die Prognose-Gleichung ist in diesem Fall 8230, die Y auf sich selbst zurückgeblieben um eine Periode zurückgeblieben ist. Dies ist ein 8220ARIMA (1,0,0) constant8221 Modell. Wenn der Mittelwert von Y Null ist, dann würde der konstante Term nicht eingeschlossen werden. Wenn der Steigungskoeffizient 981 & sub1; positiv und kleiner als 1 in der Grße ist (er muß kleiner als 1 in der Grße sein, wenn Y stationär ist), beschreibt das Modell ein Mittelrücksetzverhalten, bei dem der nächste Periodenblockwert 981 1 mal als vorhergesagt werden sollte Weit weg vom Durchschnitt, wie dieser Zeitraum8217s Wert. Wenn 981 & sub1; negativ ist, prognostiziert es ein Mittelwert-Wiederherstellungsverhalten mit einer Veränderung von Vorzeichen, d. h. es sagt auch voraus, daß Y unterhalb der mittleren nächsten Periode liegt, wenn sie über dem Mittel dieser Periode liegt. In einem autoregressiven Modell zweiter Ordnung (ARIMA (2,0,0)), würde es auch einen Yt-2-Term auf der rechten Seite geben, und so weiter. Abhängig von den Zeichen und Größen der Koeffizienten kann ein ARIMA (2,0,0) - Modell ein System beschreiben, dessen mittlere Reversion sinusförmig oszillierend erfolgt, wie die Bewegung einer Masse auf einer Feder, die zufälligen Schocks ausgesetzt ist . ARIMA (0,1,0) zufälliger Weg: Wenn die Reihe Y nicht stationär ist, ist das einfachste mögliche Modell ein zufälliges Wandermodell, das als Begrenzungsfall eines AR (1) - Modells betrachtet werden kann, in dem die autoregressive Koeffizient ist gleich 1, dh eine Reihe mit unendlich langsamer mittlerer Reversion. Die Vorhersagegleichung für dieses Modell kann folgendermaßen geschrieben werden: wobei der konstante Term die mittlere Periodenperiodenänderung (dh die Langzeitdrift) in Y ist. Dieses Modell könnte als ein No-Intercept-Regressionsmodell angepasst werden, in dem die Die erste Differenz von Y ist die abhängige Variable. Da es nur einen nicht sonderbaren Unterschied und einen konstanten Term enthält, wird er als quotarima (0,1,0) - Modell mit constant. quot klassifiziert. Das random-walk-ohne - driftmodell wäre ein ARIMA (0,1, 0) - Modell ohne konstantes ARIMA (1,1,0) differenziertes autoregressives Modell erster Ordnung: Wenn die Fehler eines Zufallswegmodells autokorreliert werden, kann das Problem möglicherweise durch Hinzufügen einer Verzögerung der abhängigen Variablen zu der Vorhersagegleichung - - ie Durch Rückgang der ersten Differenz von Y auf sich selbst verzögert um eine Periode. Dies würde die folgende Vorhersagegleichung ergeben, die umgeordnet werden kann: Dies ist ein autoregressives Modell erster Ordnung mit einer Ordnung der Nichtsaisonaldifferenzierung und einem konstanten Term - d. e. Ein ARIMA (1,1,0) - Modell. ARIMA (0,1,1) ohne konstante einfache exponentielle Glättung: Eine weitere Strategie zur Korrektur autokorrelierter Fehler in einem Random-Walk-Modell wird durch das einfache exponentielle Glättungsmodell vorgeschlagen. Es sei daran erinnert, dass für einige nichtstationäre Zeitreihen (z. B. diejenigen, die geräuschschwankungen um einen langsam variierenden Mittelwert aufweisen) das Zufallswegmodell nicht ebenso gut funktioniert wie ein gleitender Durchschnitt von vergangenen Werten. Mit anderen Worten, anstatt die letzte Beobachtung als Prognose der nächsten Beobachtung zu nehmen, ist es besser, einen Durchschnitt der letzten Beobachtungen zu verwenden, um das Rauschen herauszufiltern und das lokale Mittel genauer zu schätzen. Das einfache exponentielle Glättungsmodell verwendet einen exponentiell gewichteten gleitenden Durchschnitt vergangener Werte, um diesen Effekt zu erzielen. Die Vorhersagegleichung für das einfache exponentielle Glättungsmodell kann in einer Anzahl mathematisch äquivalenter Formen geschrieben werden. Von denen eine die sogenannte 8220-Fehlerkorrektur8221-Form ist, in der die vorhergehende Prognose in der Richtung ihres Fehlers angepasst wird: Weil e t-1 Y t-1 - 374 t-1 per Definition umgeschrieben werden kann : Es handelt sich um eine ARIMA (0,1,1) - konstante Vorhersagegleichung mit 952 1 1 - 945. Dies bedeutet, dass Sie eine einfache exponentielle Glättung durch Angabe als ARIMA (0,1,1) - Modell ohne passen Konstant und der geschätzte MA (1) - Koeffizient entspricht 1-minus-alpha in der SES-Formel. Denken Sie daran, dass im SES-Modell das Durchschnittsalter der Daten in den 1-Periodenprognosen 1 945 beträgt, was bedeutet, dass sie tendenziell hinter Trends oder Wendepunkten um etwa 1 945 Perioden zurückbleiben werden. Daraus folgt, dass das Durchschnittsalter der Daten in den 1-Periodenprognosen eines ARIMA-Modells (0,1,1) ohne Konstante 1 (1 - 952 1) ist. Wenn beispielsweise 952 1 0,8 beträgt, ist das Durchschnittsalter 5. Da sich 952 1 1 nähert, wird das ARIMA-Modell (0,1,1) ohne Konstante zu einem sehr langfristigen gleitenden Durchschnitt und als 952 1 Ansätze 0 wird es ein random-walk-ohne-Drift-Modell. What8217s der beste Weg, um für Autokorrelation zu korrigieren: Hinzufügen von AR-Begriffe oder Hinzufügen von MA-Begriffen In den vorherigen beiden Modellen, die oben diskutiert wurden, wurde das Problem der autokorrelierten Fehler in einem zufälligen Fußmodell auf zwei verschiedene Arten behoben: durch Hinzufügen eines Verzögerungswertes der differenzierten Reihe Auf die Gleichung oder das Hinzufügen eines verzögerten Wertes des Prognosefehlers. Welcher Ansatz am besten ist Eine Regel für diese Situation, die später noch ausführlicher diskutiert wird, besteht darin, dass die positive Autokorrelation normalerweise am besten durch Hinzufügen eines AR-Terms zum Modell behandelt wird und negative Autokorrelation in der Regel am besten durch Hinzufügen eines MA-Semester. In der Wirtschafts - und Wirtschaftszeitreihe entsteht häufig eine negative Autokorrelation als Artefakt der Differenzierung. (Im allgemeinen differenziert die Differenzierung die positive Autokorrelation und kann sogar einen Wechsel von positiver zu negativer Autokorrelation bewirken.) Daher wird das ARIMA (0,1,1) - Modell, in dem die Differenzierung von einem MA-Begriff begleitet wird, häufiger verwendet als ein ARIMA (1,1,0) - Modell. ARIMA (0,1,1) mit konstanter, einfacher exponentieller Glättung mit Wachstum: Durch die Implementierung des SES-Modells als ARIMA-Modell gewinnen Sie tatsächlich etwas Flexibilität. Zuerst darf der geschätzte MA (1) - Koeffizient negativ sein. Dies entspricht einem Glättungsfaktor von mehr als 1 in einem SES-Modell, das nach dem SES-Modellanpassungsverfahren meist nicht zulässig ist. Zweitens haben Sie die Möglichkeit, einen konstanten Begriff in das ARIMA-Modell aufzunehmen, wenn Sie es wünschen, um einen durchschnittlichen Trend, der nicht Null ist, abzuschätzen. Das Modell ARIMA (0,1,1) mit Konstante hat die Vorhersagegleichung: Die Ein-Perioden-Prognosen aus diesem Modell sind qualitativ denjenigen des SES-Modells ähnlich, mit der Ausnahme, dass die Trajektorie der Langzeitprognosen typischerweise a ist (Deren Neigung gleich mu ist) und nicht eine horizontale Linie. ARIMA (0,2,1) oder (0,2,2) ohne konstante lineare Exponentialglättung: Lineare exponentielle Glättungsmodelle sind ARIMA-Modelle, die zwei nicht-sauren Differenzen in Verbindung mit MA-Begriffen verwenden. Die zweite Differenz einer Folge Y ist nicht einfach die Differenz von Y und selbst von zwei Perioden verzögert, sondern sie ist die erste Differenz der ersten Differenz - i. e. Die Änderung in der Änderung von Y in der Periode t. Somit ist die zweite Differenz von Y in der Periode t gleich (Yt - Yt - 1) - (Yt - 1 - Yt - 2) Yt - 2Yt - 1Yt - 2. Eine zweite Differenz einer diskreten Funktion ist analog zu einer zweiten Ableitung einer stetigen Funktion: sie mißt zu einem gegebenen Zeitpunkt die Quota-Beschleunigung quot oder quotvequot in der Funktion. Das ARIMA (0,2,2) - Modell ohne Konstante sagt voraus, daß die zweite Differenz der Reihe eine lineare Funktion der letzten beiden Prognosefehler ist, die umgeordnet werden können: wobei 952 1 und 952 2 die MA (1) und MA (2) Koeffizienten. Dies ist ein allgemeines lineares exponentielles Glättungsmodell. Im Wesentlichen das gleiche wie Holt8217s Modell, und Brown8217s Modell ist ein spezieller Fall. Es verwendet exponentiell gewichtete gleitende Mittelwerte, um sowohl eine lokale Ebene als auch einen lokalen Trend in der Reihe abzuschätzen. Die Langzeitprognosen von diesem Modell konvergieren zu einer Geraden, deren Steigung von dem durchschnittlichen Trend abhängt, der gegen Ende der Reihe beobachtet wird. ARIMA (1,1,2) ohne konstante gedämpfte lineare Exponentialglättung. Dieses Modell ist in den begleitenden Dias auf ARIMA-Modellen dargestellt. Es extrapoliert die lokale Tendenz am Ende der Serie, sondern flacht es auf längere Prognose Horizonte, um eine Notiz von Konservatismus, eine Praxis, die empirische Unterstützung hat einzuführen. Siehe den Artikel auf quotWarum die Damped Trend Werke von Gardner und McKenzie und die quotGolden Rulequot Artikel von Armstrong et al. für Details. Es ist grundsätzlich ratsam, bei Modellen zu bleiben, bei denen mindestens einer von p und q nicht größer als 1 ist, dh nicht versuchen, ein Modell wie ARIMA (2,1,2) anzubringen, da dies zu Überbeanspruchungen führen kann Die in den Anmerkungen zur mathematischen Struktur von ARIMA-Modellen näher erläutert werden. Spreadsheet-Implementierung: ARIMA-Modelle wie die oben beschriebenen lassen sich einfach in einer Tabellenkalkulation implementieren. Die Vorhersagegleichung ist einfach eine lineare Gleichung, die sich auf vergangene Werte von ursprünglichen Zeitreihen und vergangenen Werten der Fehler bezieht. Auf diese Weise können Sie eine ARIMA-Prognosekalkulation einrichten, indem Sie die Daten in Spalte A, die Prognoseformel in Spalte B und die Fehler (Daten minus Prognosen) in Spalte C speichern. Die Prognoseformel in einer typischen Zelle in Spalte B wäre einfach Ein linearer Ausdruck, der sich auf Werte in vorhergehenden Zeilen der Spalten A und C bezieht, multipliziert mit den entsprechenden AR - oder MA-Koeffizienten, die in Zellen anderswo auf der Kalkulationstabelle gespeichert sind.


No comments:

Post a Comment