Sunday 19 February 2017

Beweglicher Mittlerer Lambda

Exploration der exponentiell gewichteten Moving Average Volatilität ist die häufigste Maßnahme für das Risiko, aber es kommt in mehreren Geschmacksrichtungen. In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, finden Sie unter Verwenden von Volatilität, um zukünftiges Risiko zu messen.) Wir verwendeten Googles tatsächlichen Aktienkursdaten, um die tägliche Volatilität basierend auf 30 Tagen der Bestandsdaten zu berechnen. In diesem Artikel werden wir auf einfache Volatilität zu verbessern und diskutieren den exponentiell gewichteten gleitenden Durchschnitt (EWMA). Historische Vs. Implied Volatility Erstens, lassen Sie diese Metrik in ein bisschen Perspektive. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit ist Prolog Wir messen Geschichte in der Hoffnung, dass es prädiktive ist. Die implizite Volatilität dagegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Erkenntnisse siehe Die Verwendungen und Grenzen der Volatilität.) Wenn wir uns nur auf die drei historischen Ansätze (auf der linken Seite) konzentrieren, haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Berechnen die periodische Rendite. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rendite in kontinuierlich zusammengesetzten Ausdrücken ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. H. Preis heute geteilt durch den Preis gestern und so weiter). Dies erzeugt eine Reihe von täglichen Renditen, von u i bis u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. Wir haben gezeigt, dass die einfache Varianz im Rahmen einiger akzeptabler Vereinfachungen der Mittelwert der quadratischen Renditen ist: Beachten Sie, dass diese Summe die periodischen Renditen zusammenfasst und dann diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, seine wirklich nur ein Durchschnitt der quadrierten periodischen kehrt zurück. Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben. Also, wenn alpha (a) ein Gewichtungsfaktor (speziell eine 1m) ist, dann eine einfache Varianz sieht etwa so aus: Die EWMA verbessert auf einfache Varianz Die Schwäche dieser Ansatz ist, dass alle Renditen das gleiche Gewicht zu verdienen. Yesterdays (sehr jüngste) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch Verwendung des exponentiell gewichteten gleitenden Mittelwerts (EWMA), bei dem neuere Renditen ein größeres Gewicht auf die Varianz aufweisen, festgelegt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Die als Glättungsparameter bezeichnet wird. Lambda muss kleiner als 1 sein. Unter dieser Bedingung wird anstelle der gleichen Gewichtungen jede quadratische Rendite durch einen Multiplikator wie folgt gewichtet: Beispielsweise neigt die RiskMetrics TM, eine Finanzrisikomanagementgesellschaft, dazu, eine Lambda von 0,94 oder 94 zu verwenden. In diesem Fall wird die erste ( (1 - 0,94) (94) 0 6. Die nächste quadrierte Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht ist gleich (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von exponentiell in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muß) des vorherigen Gewichtes. Dies stellt eine Varianz sicher, die gewichtet oder zu neueren Daten voreingenommen ist. (Weitere Informationen finden Sie im Excel-Arbeitsblatt für die Googles-Volatilität.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google wird unten angezeigt. Einfache Volatilität wiegt effektiv jede periodische Rendite von 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre täglich Aktienkursdaten, das sind 509 tägliche Renditen und 1509 0,196). Aber beachten Sie, dass die Spalte P ein Gewicht von 6, dann 5,64, dann 5,3 und so weiter. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die Summe der ganzen Reihe (in Spalte Q) haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und der EWMA im Googles-Fall? Bedeutend: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (Details siehe Tabelle). Offenbar ließ sich die Googles-Volatilität in jüngster Zeit nieder, daher könnte eine einfache Varianz künstlich hoch sein. Die heutige Varianz ist eine Funktion der Pior Tage Variance Youll bemerken wir benötigt, um eine lange Reihe von exponentiell sinkende Gewichte zu berechnen. Wir werden die Mathematik hier nicht durchführen, aber eine der besten Eigenschaften der EWMA ist, daß die gesamte Reihe zweckmäßigerweise auf eine rekursive Formel reduziert: Rekursiv bedeutet, daß heutige Varianzreferenzen (d. h. eine Funktion der früheren Tagesvarianz) ist. Sie können diese Formel auch in der Kalkulationstabelle zu finden, und es erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der gestrigen Abweichung (gewichtet mit Lambda) plus der gestrigen Rückkehr (gewogen durch ein Minus-Lambda). Beachten Sie, wie wir sind nur das Hinzufügen von zwei Begriffe zusammen: gestern gewichtet Varianz und gestern gewichtet, quadriert zurück. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. wie RiskMetrics 94) deutet auf einen langsameren Abfall in der Reihe hin - in relativer Hinsicht werden wir mehr Datenpunkte in der Reihe haben, und sie fallen langsamer ab. Auf der anderen Seite, wenn wir das Lambda reduzieren, deuten wir auf einen höheren Abfall hin: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, so dass Sie mit seiner Empfindlichkeit experimentieren können). Zusammenfassung Volatilität ist die momentane Standardabweichung einer Aktie und die häufigste Risikomessung. Es ist auch die Quadratwurzel der Varianz. Wir können Varianz historisch oder implizit messen (implizite Volatilität). Bei der historischen Messung ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Varianz ist alle Renditen bekommen das gleiche Gewicht. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch Zuordnen von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße, sondern auch mehr Gewicht auf neuere Renditen. (Um eine Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle.) Die EWMA-Ansatz hat eine attraktive Funktion: es erfordert relativ wenig gespeicherte Daten. Um unsere Schätzung an jedem Punkt zu aktualisieren, benötigen wir nur eine vorherige Schätzung der Varianzrate und des jüngsten Beobachtungswertes. Ein weiteres Ziel der EWMA ist es, Veränderungen in der Volatilität nachzuvollziehen. Für kleine Werte beeinflussen jüngste Beobachtungen die Schätzung zeitnah. Für Werte, die näher an einem liegen, ändert sich die Schätzung langsam auf der Grundlage der jüngsten Änderungen in den Renditen der zugrundeliegenden Variablen. Die von JP Morgan erstellte und öffentlich zugängliche RiskMetrics-Datenbank nutzt die EWMA zur Aktualisierung der täglichen Volatilität. WICHTIG: Die EWMA-Formel geht nicht von einem lang anhaltenden durchschnittlichen Varianzniveau aus. So bedeutet das Konzept der Volatilität Reversion nicht von der EWMA erfasst. Die ARCHGARCH Modelle sind dafür besser geeignet. Ein sekundäres Ziel der EWMA ist es, Veränderungen in der Volatilität nachzuvollziehen, so dass bei kleinen Werten die jüngsten Beobachtungen die Schätzung zeitnah beeinflussen und bei Werten, die näher zu eins sind, sich die Schätzung langsam auf die jüngsten Änderungen der Renditen der zugrunde liegenden Variablen ändert. Die RiskMetrics-Datenbank (erstellt von JP Morgan), die 1994 veröffentlicht wurde, verwendet das EWMA-Modell zur Aktualisierung der täglichen Volatilitätsschätzung. Das Unternehmen festgestellt, dass über eine Reihe von Marktvariablen, gibt dieser Wert der Prognose der Varianz, die am nächsten zu realisierten Varianz Rate kommen. Die realisierten Varianzraten an einem bestimmten Tag wurden als gleichgewichteter Durchschnitt der folgenden 25 Tage berechnet. Um den optimalen Wert von lambda für unseren Datensatz zu berechnen, müssen wir die realisierte Volatilität an jedem Punkt berechnen. Es gibt mehrere Methoden, so wählen Sie ein. Als nächstes wird die Summe der quadratischen Fehler (SSE) zwischen der EWMA-Schätzung und der realisierten Volatilität berechnet. Schließlich minimieren die SSE durch Variieren des Lambdawertes. Klingt einfach Es ist. Die größte Herausforderung besteht darin, einen Algorithmus zur Berechnung der realisierten Volatilität zu vereinbaren. Zum Beispiel wählten die Leute bei RiskMetrics die folgenden 25 Tage, um die realisierte Varianzrate zu berechnen. In Ihrem Fall können Sie einen Algorithmus, der Tägliche Volumen, HILO und OPEN-CLOSE Preise verwendet. Q 1: Können wir EWMA verwenden, um die Volatilität mehr als einen Schritt voraus zu schätzen (oder prognostizieren) Die EWMA-Volatilitätsdarstellung setzt keine langfristige Durchschnittsvolatilität voraus, so dass die EWMA für jeden Prognosehorizont über einen Schritt hinaus eine Konstante zurückgibt Wert: Kleine Änderungen werden nur im Laufe der Zeit offensichtlich Da es Zeit braucht, bis die Muster in den Daten auftauchen, kann eine permanente Verschiebung des Prozesses nicht sofort zu einzelnen Verletzungen der Kontrollgrenzen auf einer Shewhart-Kontrollkarte führen. Die Shewhart-Regelkarte ist nicht leistungsfähig, um kleine Änderungen, etwa in der Größenordnung von 1 - 12 Standardabweichungen, zu erkennen. Für diesen Zweck eignet sich das Regelschema EWMA (exponentiell gewichteter gleitender Durchschnitt) besser. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) ist eine Statistik zur Überwachung des Prozesses, die die Daten in einer Weise vergleicht, die Daten weniger und weniger Gewicht verleiht, da sie in der Zeit von der aktuellen Messung weiter entfernt werden. Die Daten Y1, Y2,. , Yt sind die Prüfstandardmaße, die rechtzeitig bestellt werden. Die EWMA-Statistik zum Zeitpunkt t wird rekursiv von einzelnen Datenpunkten mit der ersten EWMA-Statistik EWMA 1 berechnet. Das arithmetische Mittel der historischen Daten. EWMA Lambda Yt (1-Lambda) EWMA Steuermechanismus für EWMA Die EWMA-Regelkarte kann durch die Wahl des Gewichtungsfaktors (Lambda) empfindlich auf kleine Änderungen oder eine allmähliche Drift des Prozesses eingestellt werden. Für diesen Zweck wird üblicherweise ein Gewichtungsfaktor von 0,2 - 0,3 vorgeschlagen (Hunter). Und 0,15 ist auch eine beliebte Wahl. Grenzwerte für die Kontrollkarte Die Ziel - oder Mittellinie der Kontrollkarte ist der Durchschnitt der historischen Daten. Die oberen (UCL) und unteren (LCL) Grenzen sind UCL EWMA k sqrt LCL EWMA - k sqrt wobei s mal der Radikalausdruck eine gute Annäherung an die Standardabweichung der EWMA - Statistik ist und der Faktor k in der gleichen Weise gewählt wird Für die Shewhart-Kontrollkarte - im Allgemeinen 2 oder 3. Vorgehensweise für die Implementierung der EWMA-Kontrollkarte Die Implementierung der EWMA-Kontrollkarte ist die gleiche wie für jede andere Art von Kontrollprozedur. Das Verfahren basiert auf der Annahme, dass die guten historischen Daten repräsentativ für den Kontrollprozess sind, wobei zukünftige Daten aus demselben Prozess auf Übereinstimmung mit den historischen Daten getestet werden. Um die Prozedur zu starten, werden eine Ziel - (Durchschnitts-) und eine Prozessstandardabweichung aus historischen Prüfstandarddaten berechnet. Dann geht die Prozedur in die Überwachungsstufe über, wobei die EWMA-Statistik berechnet und gegen die Kontrollgrenzen getestet wird. Die EWMA-Statistiken sind gewichtete Durchschnitte, und somit sind ihre Standardabweichungen kleiner als die Standardabweichungen der Rohdaten und die entsprechenden Kontrollgrenzen sind schmaler als die Kontrollgrenzen für das Shewhart-Einzelbeobachtungsdiagramm.


No comments:

Post a Comment