Saturday, October 29, 2016

Exponentiallyweight moving average standard deviation

Exploration der exponentiell gewichteten Moving Average Volatilität ist die häufigste Maßnahme für das Risiko, aber es kommt in mehreren Geschmacksrichtungen. In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, lesen Sie unter Verwenden der Volatilität, um zukünftiges Risiko zu messen.) Wir verwendeten Googles tatsächliche Aktienkursdaten, um die tägliche Volatilität basierend auf 30 Tagen der Bestandsdaten zu berechnen. In diesem Artikel werden wir auf einfache Volatilität zu verbessern und diskutieren den exponentiell gewichteten gleitenden Durchschnitt (EWMA). Historische Vs. Implied Volatility Erstens, lassen Sie diese Metrik in ein bisschen Perspektive. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit ist Prolog Wir messen Geschichte in der Hoffnung, dass es prädiktive ist. Die implizite Volatilität dagegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Erkenntnisse siehe Die Verwendungen und Grenzen der Volatilität.) Wenn wir uns auf die drei historischen Ansätze (auf der linken Seite) konzentrieren, haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Berechnen die periodische Rendite. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rendite in kontinuierlich zusammengesetzten Ausdrücken ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. H. Preis heute geteilt durch den Preis gestern und so weiter). Dies erzeugt eine Reihe von täglichen Renditen, von u i bis u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. Wir haben gezeigt, dass die einfache Varianz im Rahmen einiger akzeptabler Vereinfachungen der Mittelwert der quadratischen Renditen ist: Beachten Sie, dass diese Summe die periodischen Renditen zusammenfasst und dann diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, seine wirklich nur ein Durchschnitt der quadrierten periodischen kehrt zurück. Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben. Wenn also Alpha (a) ein Gewichtungsfaktor (speziell eine 1 / m) ist, dann sieht eine einfache Varianz so aus: Die EWMA verbessert die einfache Varianz Die Schwäche dieses Ansatzes ist, dass alle Renditen das gleiche Gewicht verdienen. Yesterdays (sehr jüngste) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch Verwendung des exponentiell gewichteten gleitenden Mittelwerts (EWMA), bei dem neuere Renditen ein größeres Gewicht auf die Varianz aufweisen, festgelegt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Die als Glättungsparameter bezeichnet wird. Lambda muss kleiner als 1 sein. Unter dieser Bedingung wird anstelle der gleichen Gewichtungen jede quadratische Rendite durch einen Multiplikator wie folgt gewichtet: Beispielsweise neigt die RiskMetrics TM, eine Finanzrisikomanagementgesellschaft, dazu, eine Lambda von 0,94 oder 94 zu verwenden. In diesem Fall wird die erste ( (1 - 0,94) (94) 0 6. Die nächste quadrierte Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht entspricht (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von exponentiell in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muß) des vorherigen Gewichtes. Dies stellt eine Varianz sicher, die gewichtet oder zu neueren Daten voreingenommen ist. (Weitere Informationen finden Sie im Excel-Arbeitsblatt für die Googles-Volatilität.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google wird unten angezeigt. Einfache Volatilität wiegt effektiv jede periodische Rendite von 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre tägliche Aktienkursdaten, das sind 509 tägliche Renditen und 1/509 0,196). Aber beachten Sie, dass die Spalte P ein Gewicht von 6, dann 5,64, dann 5,3 und so weiter. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die Summe der ganzen Reihe (in Spalte Q) haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und der EWMA im Googles-Fall? Bedeutend: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (Details siehe Tabelle). Offenbar ließ sich die Googles-Volatilität in jüngster Zeit nieder, daher könnte eine einfache Varianz künstlich hoch sein. Die heutige Varianz ist eine Funktion der Pior Tage Variance Youll bemerken wir benötigt, um eine lange Reihe von exponentiell sinkenden Gewichte zu berechnen. Wir werden die Mathematik hier nicht durchführen, aber eine der besten Eigenschaften der EWMA ist, daß die gesamte Reihe zweckmäßigerweise auf eine rekursive Formel reduziert: Rekursiv bedeutet, daß heutige Varianzreferenzen (d. h. eine Funktion der früheren Tagesvarianz) ist. Sie können diese Formel auch in der Kalkulationstabelle zu finden, und es erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der gestrigen Abweichung (gewichtet mit Lambda) plus der gestrigen Rückkehr (gewogen durch ein Minus-Lambda). Beachten Sie, wie wir sind nur das Hinzufügen von zwei Begriffe zusammen: gestern gewichtet Varianz und gestern gewichtet, quadriert zurück. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. wie RiskMetrics 94) deutet auf einen langsameren Abfall in der Reihe hin - in relativer Hinsicht werden wir mehr Datenpunkte in der Reihe haben, und sie fallen langsamer ab. Auf der anderen Seite, wenn wir das Lambda reduzieren, deuten wir auf einen höheren Abfall hin: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, so dass Sie mit seiner Empfindlichkeit experimentieren können). Zusammenfassung Volatilität ist die momentane Standardabweichung einer Aktie und die häufigste Risikomessung. Es ist auch die Quadratwurzel der Varianz. Wir können Varianz historisch oder implizit messen (implizite Volatilität). Bei der historischen Messung ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Varianz ist alle Renditen bekommen das gleiche Gewicht. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch Zuordnen von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße, sondern auch mehr Gewicht auf neuere Renditen. (Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle.) Der exponentiell gewichtete gleitende Durchschnitt (EWMA) ist eine Statistik für die Überwachung des Prozesses, der die Daten in einer Weise, die weniger und weniger Gewicht auf Daten, wie sie weiter sind Entfernt. Vergleich von Shewhart-Kontrolldiagramm und EWMA-Kontrolltafel-Techniken Für die Shewhart-Diagrammsteuerungstechnik hängt die Entscheidung über den Zustand der Kontrolle des Prozesses zu irgendeinem Zeitpunkt (t) ausschließlich von der letzten Messung aus dem Verfahren ab, Der Grad der Richtigkeit der Schätzungen der Kontrollgrenzen aus historischen Daten. Für die EWMA-Steuerungstechnik hängt die Entscheidung von der EWMA-Statistik ab, die ein exponentiell gewichteter Durchschnitt aller vorherigen Daten ist, einschließlich der letzten Messung. Durch die Wahl des Gewichtungsfaktors (Lambda) kann die EWMA-Steuerprozedur empfindlich auf eine kleine oder allmähliche Drift in dem Prozess eingestellt werden, während die Shewhart-Steuerprozedur nur dann reagieren kann, wenn der letzte Datenpunkt außerhalb einer Kontrollgrenze liegt. Definition von EWMA Die berechnete Statistik ist: mbox t lambda Yt (1-lambda) mbox ,,, mbox ,,, t 1,, 2,, ldots ,, n. Wobei (mbox 0) der Mittelwert der historischen Daten (Ziel) (Yt) ist die Beobachtung zur Zeit (t) (n) die Anzahl der zu überwachenden Beobachtungen einschließlich (mbox 0) (0 Interpretation der EWMA - Dots sind die Rohdaten, die gezackte Linie ist die EWMA-Statistik im Laufe der Zeit. Das Diagramm zeigt uns, dass der Prozess in der Steuerung ist, weil alle (mbox t) zwischen den Kontroll-Grenzen liegen. Allerdings scheint es einen Trend nach oben für die letzten 5 Ich habe einige Prozessdaten für 3 Jahre gesammelt und ich möchte eine EWMA prospektive Analyse nachbilden, um zu sehen, ob mein Set-Glättungsparameter alle wichtigen Änderungen (ohne zu viele falsche Alarme) erkannt hätte. Es scheint, wie die meisten Lehrbücher und Literatur, die ich sah, dass eine Mittel-und Standardabweichung verwenden, um die Kontroll-Limits zu berechnen. Dies ist in der Regel die in-Control-Mittelwert und Standardabweichung von einigen historischen Daten, oder die mittlere und sd der Bevölkerung, aus denen die Proben gezeichnet werden Haben keine Informationen. Gibt es einen anderen Weg, um die Grenzwerte zu berechnen Gibt es eine Variation der EWMA-Diagramm, das nicht Mittelwert und Standardabweichung Jede kreative Ideen Vielen Dank im Voraus Um sicherzustellen, dass ich das verstehe: Sie könnten die EWMA-Mittel zu berechnen Und Varianz, aber Sie don39t haben eine Grundlinie, um sie zu vergleichen Es klingt für mich wie Sie haben eine überwachte Technik (die davon ausgeht, können Sie definieren, was es quotshouldot aussehen), aber Sie wollen eine unbeaufsichtigte Technik (die nur für Unterschiede sucht, ohne anzurufen Ein Zustand quotgoodquot und ein anderer quotbadquot). Für unbeaufsichtigte Techniken, Clustering in den Sinn kommt, aber es müsste geändert werden, um auf timeseries gelten. Wie über Generalized Likelihood Ratio (GLR) ndash Jim Pivarski 25 Juni um 2:49 Wenn wir beziehen sich auf en. wikipedia. org/wiki/EWMAchart. Ich kann die Zi für mein gegebenes Lambda berechnen, aber wenn es um die Kontrollgrenzen geht, habe ich keine historischen Daten, um die T und S. zu berechnen. Vielen Dank Ich werde in GLR schauen und auch auf Cross Validated posten. Ndash user3295481 Jun 25 14 at 2:54 Yeah, T und S sind die Mittelwerte und Standardabweichungen einer Grundlinienverteilung, die entweder a priori gegeben oder aus einem Trainingsdatensatz ermittelt werden. Der Trainings-Dataset repräsentiert, wie die Daten aussehen sollen, also ist dies eine überwachte Technik und Sie wollen eine unüberwiesene Technik. GLR isn39t exponentiell gewichtet, aber es dynamisch findet einen Bruch in den Daten zwischen zwei verschiedenen Distributionen und kombiniert Daten auf jeder Seite der Pause, um mehr robuste Ergebnisse zu erhalten. Es könnte sein, was Sie wollen. Ndash Jim Pivarski Jun 25 14 at 3:00 1 Antwort Aus praktischer und operativer Sicht ist die Verwendung der statistischen Analyse von historischen Daten allein selten. Ja, es bietet einige Leitlinien, wie der Prozess (und seine Steuerung) durchführen, aber das Wichtigste ist bei weitem ein gutes Verständnis und Wissen über die technischen Grenzen zu haben. Ich verweise auf die Betriebsgrenzen, die durch die Spezifikationen und Leistungsmerkmale der verschiedenen Geräte bestimmt werden. Dies ermöglicht es, ein gutes Verständnis davon zu entwickeln, wie sich der Prozess verhalten soll (in Bezug auf optimalen Betriebspunkt und obere / untere Regelgrenzen) und wo die Bereiche mit der größten Abweichung von optimal sind. Das hat sehr wenig mit der statistischen Analyse historischer Daten und viel mit der Verfahrenstechnik / Metallurgie zu tun - abhängig von der Art des Prozesses, mit dem Sie zu tun haben. Die Regelgrenzen werden letztlich von dem bestimmt, was der Prozessmanager / Prozessingenieur WANTS, die in der Regel (aber nicht immer) innerhalb der Typenschildkapazität des Gerätes liegen. Wenn Sie innerhalb der operativen Grenzen arbeiten, und Sie sind im Bereich der Prozessoptimierung, dann ja, statistische Analyse ist weit verbreitet und kann gute Einblicke bieten. Abhängig von der Variabilität Ihres Prozesses, wie gut Ihr Steuersystem eingerichtet ist und die Homogenität Ihres Futtermittelprodukts, werden die oberen und unteren Kontrollgrenzen, die ausgewählt werden, variieren. Ein guter Ausgangspunkt ist der optimale Betriebspunkt (z. B. 100 m3 / h), dann verwenden Sie eine sinnvolle Menge an historischen Daten, um eine Standardabweichung zu berechnen und Ihre Obergrenze von 100 1 Standard-Dev und Ihre Untergrenze von 100 - 1 Standard-Dev . Das ist keineswegs eine harte und schnelle Regel, aber es ist ein vernünftiger Ausgangspunkt. Beantwortet am 7. Februar um 12:12 Berechnen EWMA-Korrelation mit Excel Wir hatten vor kurzem gelernt, wie man die Volatilität mit EWMA exponentiell gewichteten Moving Average schätzen. Wie wir wissen, vermeidet EWMA die Fallstricke von gleich gewichteten Durchschnitten, da es den neueren Beobachtungen gegenüber den älteren Beobachtungen mehr Gewicht verleiht. Also, wenn wir extreme Renditen in unseren Daten, wie die Zeit vergeht, werden diese Daten älter und wird weniger Gewicht in unserer Berechnung. In diesem Artikel werden wir untersuchen, wie wir die Korrelation mit EWMA in Excel berechnen können. Wir wissen, daß die Korrelation nach folgender Formel berechnet wird: Der erste Schritt besteht darin, die Kovarianz zwischen den beiden Rückkehrserien zu berechnen. Wir verwenden den Glättungsfaktor Lambda 0.94, wie er in RiskMetrics verwendet wird. Betrachten wir die folgende Gleichung: Wir verwenden die quadrierten Renditen r 2 als Reihe x in dieser Gleichung für Varianzvorhersagen und Kreuzprodukte von zwei Renditen als die Reihe x in der Gleichung für Kovarianzprognosen. Beachten Sie, dass das gleiche Lambda für alle Varianzen und Kovarianz verwendet wird. Der zweite Schritt besteht darin, die Varianzen und die Standardabweichung jeder Rückkehrreihe zu berechnen, wie in diesem Artikel beschrieben. Berechnen Sie die historische Volatilität mit EWMA. Der dritte Schritt besteht darin, die Korrelation durch Einstecken der Werte von Kovarianz und Standardabweichungen in der oben angegebenen Formel für die Korrelation zu berechnen. Die folgende Excel-Tabelle liefert ein Beispiel für die Korrelation und die Volatilitätsberechnung in Excel. Es nimmt die Log-Rückkehr von zwei Aktien und berechnet die Korrelation zwischen ihnen. Kleine Änderungen nur offensichtlich im Laufe der Zeit Leider dauert es Zeit für die Muster in den Daten entstehen, weil einzelne Verstöße gegen die Kontrolle Grenzen nicht unbedingt auf eine permanente Verschiebung In dem Prozess. Das Shewhart-Steuerungsdiagramm ist nicht zum Erfassen kleiner Änderungen geeignet, beispielsweise in der Größenordnung von höchstens einer Standardabweichung, was bei den auf der vorhergehenden Seite gezeigten Kalibrierungsdaten der Fall zu sein scheint. Für diesen Zweck eignet sich die Regelkarte der EWMA (exponentiell gewichteter gleitender Durchschnitt) besser. Erläuterung der EWMA-Statistik auf Kilogramm-Ebene Der exponentiell gewichtete gleitende Durchschnitt (EWMA) ist eine Statistik zur Überwachung des Prozesses, die die Daten in einer Weise vergleicht, die den Daten immer weniger Gewicht verleiht, da sie zeitlich weiter von der aktuellen Messung entfernt werden. Die EWMA-Statistik zum Zeitpunkt t wird rekursiv von einzelnen Datenpunkten berechnet, die rechtzeitig zu Y1, Y2,, ldots, Yt geordnet sind, wobei die erste EWMA-Statistik der Durchschnitt der historischen Daten ist. EWMA Lambda Yt (1-Lambda) EWMA Steuermechanismus für EWMA Die EWMA-Regelkarte kann durch die Wahl des Gewichtungsfaktors (Lambda) empfindlich auf kleine Änderungen oder eine allmähliche Drift des Prozesses eingestellt werden. Für diesen Zweck wurde ein Gewichtungsfaktor von 0,2 - 0,3 vorgeschlagen (Hunter), und 0,15 ist eine weitere beliebte Wahl. Grenzwerte für die Kontrollkarte Die Ziel - oder Mittellinie der Kontrollkarte ist der Durchschnitt der historischen Daten. Die obere (UCL) und untere (LCL) Grenzen sind UCL EWMA k sqrt LCL EWMA - k sqrt wobei s die Standardabweichung der historischen Daten ist, ist die Funktion unter dem Radikal eine gute Annäherung an die Komponente der Standardabweichung der EWMA Die eine Funktion der Zeit ist und k der multiplikative Faktor ist. Definiert in der gleichen Weise wie für die Shewhart-Regelkarte, die üblicherweise als 3 angenommen wird. Beispiel für EWMA-Diagramm für die Prüfung von Standarddaten für Kilogramm-Kalibrierungen, die mehrfache Verstöße gegen die Kontrollgrenzen für die EWMA-Statistik anzeigen Der Ziel - (Durchschnitts-) und Prozessstandard Die Berechnung der EWMA-Statistik beginnt mit den Daten, die Anfang 1985 aufgenommen wurden. In der folgenden Tabelle sind die Steuerdaten nach 1985 grün und die EWMA-Statistik dargestellt Werden als schwarze Punkte dargestellt, die den Rohdaten überlagert sind. Die Kontrollgrenzen werden nach der obigen Gleichung berechnet, wobei die Prozeßstandardabweichung s 0,03065 mg und k 3 ist. Die EWMA-Statistik und nicht die Rohdaten sind von Interesse bei der Suche nach außer-Steuersignalen. Da die EWMA-Statistik ein gewichteter Durchschnitt ist, weist sie eine kleinere Standardabweichung auf als eine einzige Kontrollmessung und daher sind die EWMA-Regelgrenzen schmaler als die Grenzen für eine Shewhart-Regelkarte. Die EWMA-Regelkarte für Massenkalibrierungen kann sowohl mit dem Dataplot-Code als auch mit dem R-Code erzeugt werden. Interpretation der Regelkarte Die EWMA-Regelkarte zeigt viele Verstöße gegen die Regelgrenzen ab etwa Mitte des Jahres 1986. Dieses Muster ergibt sich, weil sich der Prozeßdurchschnitt tatsächlich um eine Standardabweichung verschoben hat und die EWMA-Regelkarte empfindlich auf klein ist Änderungen.


No comments:

Post a Comment