2. Order Moving Average Filter

Verschieben von durchschnittlichen und exponentiellen Glättungsmodellen Als ein erster Schritt zum Überfahren von Mittelwertsmodellen, Zufallswegmodellen und linearen Trendmodellen können nicht-saisonale Muster und Trends mittels eines gleitenden Durchschnitts - oder Glättungsmodells extrapoliert werden. Die grundlegende Annahme hinter Mittelwertbildung und Glättungsmodellen ist, dass die Zeitreihe lokal stationär mit einem sich langsam verändernden Mittelwert ist. Daher nehmen wir einen bewegten (lokalen) Durchschnitt, um den aktuellen Wert des Mittelwerts abzuschätzen und dann als die Prognose für die nahe Zukunft zu verwenden. Dies kann als Kompromiss zwischen dem mittleren Modell und dem random-walk-ohne-Drift-Modell betrachtet werden. Die gleiche Strategie kann verwendet werden, um einen lokalen Trend abzuschätzen und zu extrapolieren. Ein gleitender Durchschnitt wird oft als "quotsmoothedquot" - Version der ursprünglichen Serie bezeichnet, da die kurzzeitige Mittelung die Wirkung hat, die Stöße in der ursprünglichen Reihe zu glätten. Durch Anpassen des Glättungsgrades (die Breite des gleitenden Durchschnitts) können wir hoffen, eine Art von optimaler Balance zwischen der Leistung des Mittelwerts und der zufälligen Wandermodelle zu erreichen. Die einfachste Art der Mittelung Modell ist die. Einfache (gleichgewichtige) Moving Average: Die Prognose für den Wert von Y zum Zeitpunkt t1, der zum Zeitpunkt t gemacht wird, entspricht dem einfachen Mittelwert der letzten m Beobachtungen: (Hier und anderswo werde ich das Symbol 8220Y-hat8221 stehen lassen Für eine Prognose der Zeitreihe Y, die am frühestmöglichen früheren Zeitpunkt durch ein gegebenes Modell durchgeführt wird.) Dieser Mittelwert wird in der Periode t (m1) / 2 zentriert, was bedeutet, daß die Schätzung des lokalen Mittels dazu tendiert, hinter dem Wert zu liegen Wahren Wert des lokalen Mittels um etwa (m1) / 2 Perioden. Das Durchschnittsalter der Daten im einfachen gleitenden Durchschnitt ist also (m1) / 2 relativ zu der Periode, für die die Prognose berechnet wird: dies ist die Zeitspanne, in der die Prognosen dazu tendieren, hinter den Wendepunkten in der Region zu liegen Daten. Wenn Sie z. B. die letzten 5 Werte mitteln, werden die Prognosen etwa 3 Perioden spät sein, wenn sie auf Wendepunkte reagieren. Beachten Sie, dass, wenn m1, die einfache gleitende Durchschnitt (SMA) - Modell ist gleichbedeutend mit der random walk-Modell (ohne Wachstum). Wenn m sehr groß ist (vergleichbar der Länge des Schätzzeitraums), entspricht das SMA-Modell dem mittleren Modell. Wie bei jedem Parameter eines Prognosemodells ist es üblich, den Wert von k anzupassen, um den besten Quotienten der Daten zu erhalten, d. H. Die kleinsten Prognosefehler im Durchschnitt. Hier ist ein Beispiel einer Reihe, die zufällige Fluktuationen um ein sich langsam veränderndes Mittel zu zeigen scheint. Erstens können wir versuchen, es mit einem zufälligen Fußmodell, das entspricht einem einfachen gleitenden Durchschnitt von 1 Begriff entspricht: Das zufällige gehen Modell reagiert sehr schnell auf Änderungen in der Serie, aber dabei nimmt sie einen Großteil der quotnoisequot in der Daten (die zufälligen Fluktuationen) sowie das Quotsignalquot (das lokale Mittel). Wenn wir stattdessen einen einfachen gleitenden Durchschnitt von 5 Begriffen anwenden, erhalten wir einen glatteren Satz von Prognosen: Der 5-Term-einfache gleitende Durchschnitt liefert in diesem Fall deutlich kleinere Fehler als das zufällige Wegmodell. Das durchschnittliche Alter der Daten in dieser Prognose beträgt 3 ((51) / 2), so dass es dazu neigt, hinter den Wendepunkten um etwa drei Perioden zu liegen. (Zum Beispiel scheint ein Abschwung in Periode 21 aufgetreten zu sein, aber die Prognosen drehen sich erst nach mehreren Perioden später.) Beachten Sie, dass die Langzeitprognosen des SMA-Modells eine horizontale Gerade sind, genau wie beim zufälligen Weg Modell. Somit geht das SMA-Modell davon aus, dass es keinen Trend in den Daten gibt. Während jedoch die Prognosen aus dem Zufallswegmodell einfach dem letzten beobachteten Wert entsprechen, sind die Prognosen des SMA-Modells gleich einem gewichteten Mittelwert der neueren Werte. Die von Statgraphics berechneten Konfidenzgrenzen für die Langzeitprognosen des einfachen gleitenden Durchschnitts werden nicht breiter, wenn der Prognosehorizont zunimmt. Dies ist offensichtlich nicht richtig Leider gibt es keine zugrunde liegende statistische Theorie, die uns sagt, wie sich die Vertrauensintervalle für dieses Modell erweitern sollten. Allerdings ist es nicht zu schwer, empirische Schätzungen der Konfidenzgrenzen für die längerfristigen Prognosen zu berechnen. Beispielsweise können Sie eine Tabellenkalkulation einrichten, in der das SMA-Modell für die Vorhersage von 2 Schritten im Voraus, 3 Schritten voraus usw. innerhalb der historischen Datenprobe verwendet wird. Sie könnten dann die Stichproben-Standardabweichungen der Fehler bei jedem Prognosehorizont berechnen und dann Konfidenzintervalle für längerfristige Prognosen durch Addieren und Subtrahieren von Vielfachen der geeigneten Standardabweichung konstruieren. Wenn wir einen 9-term einfachen gleitenden Durchschnitt ausprobieren, erhalten wir sogar noch bessere Prognosen und mehr von einem nacheilenden Effekt: Das Durchschnittsalter beträgt jetzt 5 Perioden ((91) / 2). Wenn wir einen 19-term gleitenden Durchschnitt nehmen, steigt das Durchschnittsalter auf 10 an: Beachten Sie, dass die Prognosen tatsächlich hinter den Wendepunkten um etwa 10 Perioden zurückbleiben. Welches Maß an Glättung ist am besten für diese Serie Hier ist eine Tabelle, die ihre Fehlerstatistiken vergleicht, darunter auch einen 3-Term-Durchschnitt: Modell C, der 5-Term-Gleitender Durchschnitt, ergibt den niedrigsten Wert von RMSE mit einer kleinen Marge über die 3 - term und 9-Term-Mittelwerte, und ihre anderen Statistiken sind fast identisch. So können wir bei Modellen mit sehr ähnlichen Fehlerstatistiken wählen, ob wir ein wenig mehr Reaktionsfähigkeit oder ein wenig mehr Glätte in den Prognosen bevorzugen würden. (Rückkehr nach oben.) Browns Einfache Exponentialglättung (exponentiell gewichteter gleitender Durchschnitt) Das oben beschriebene einfache gleitende Durchschnittsmodell hat die unerwünschte Eigenschaft, daß es die letzten k-Beobachtungen gleich und vollständig ignoriert. Intuitiv sollten vergangene Daten in einer allmählicheren Weise diskontiert werden - zum Beispiel sollte die jüngste Beobachtung ein wenig mehr Gewicht als die zweitletzte erhalten, und die 2. jüngsten sollten ein wenig mehr Gewicht als die 3. jüngsten erhalten, und bald. Das einfache exponentielle Glättungsmodell (SES) erfüllt dies. 945 bezeichnen eine quotsmoothing constantquot (eine Zahl zwischen 0 und 1). Eine Möglichkeit, das Modell zu schreiben, besteht darin, eine Serie L zu definieren, die den gegenwärtigen Pegel (d. H. Den lokalen Mittelwert) der Serie, wie er aus Daten bis zu der Zeit geschätzt wird, darstellt. Der Wert von L zur Zeit t wird rekursiv von seinem eigenen vorherigen Wert wie folgt berechnet: Somit ist der aktuelle geglättete Wert eine Interpolation zwischen dem vorher geglätteten Wert und der aktuellen Beobachtung, wobei 945 die Nähe des interpolierten Wertes auf die neueste steuert Überwachung. Die Prognose für die nächste Periode ist einfach der aktuelle geglättete Wert: Äquivalent können wir die nächste Prognose direkt in Form früherer Prognosen und früherer Beobachtungen in einer der folgenden gleichwertigen Versionen ausdrücken. In der ersten Version ist die Prognose eine Interpolation zwischen vorheriger Prognose und vorheriger Beobachtung: In der zweiten Version wird die nächste Prognose durch Anpassung der bisherigen Prognose in Richtung des bisherigen Fehlers um einen Bruchteil 945 erhalten Zeit t. In der dritten Version ist die Prognose ein exponentiell gewichteter (dh diskontierter) gleitender Durchschnitt mit Abzinsungsfaktor 1-945: Die Interpolationsversion der Prognoseformel ist am einfachsten zu verwenden, wenn Sie das Modell in einer Tabellenkalkulation implementieren Einzelne Zelle und enthält Zellverweise, die auf die vorhergehende Prognose, die vorherige Beobachtung und die Zelle mit dem Wert von 945 zeigen. Beachten Sie, dass, wenn 945 1, das SES-Modell entspricht einem zufälligen Weg-Modell (ohne Wachstum). Wenn 945 0 ist, entspricht das SES-Modell dem mittleren Modell, wobei angenommen wird, dass der erste geglättete Wert gleich dem Mittelwert gesetzt ist. (Rückkehr nach oben.) Das Durchschnittsalter der Daten in der Simple-Exponential-Glättungsprognose beträgt 1/945 relativ zu dem Zeitraum, für den die Prognose berechnet wird. (Dies sollte nicht offensichtlich sein, kann aber leicht durch die Auswertung einer unendlichen Reihe gezeigt werden.) Die einfache gleitende Durchschnittsprognose neigt daher zu Verzögerungen hinter den Wendepunkten um etwa 1/945 Perioden. Wenn beispielsweise 945 0,5 die Verzögerung 2 Perioden beträgt, wenn 945 0,2 die Verzögerung 5 Perioden beträgt, wenn 945 0,1 die Verzögerung 10 Perioden und so weiter ist. Für ein gegebenes Durchschnittsalter (d. H. Eine Verzögerung) ist die einfache exponentielle Glättung (SES) - Prognose der simplen gleitenden Durchschnittsprognose (SMA) etwas überlegen, weil sie relativ viel mehr Gewicht auf die jüngste Beobachtung - i. e stellt. Es ist etwas mehr quresponsivequot zu Änderungen, die sich in der jüngsten Vergangenheit. Zum Beispiel haben ein SMA - Modell mit 9 Terminen und ein SES - Modell mit 945 0,2 beide ein durchschnittliches Alter von 5 Jahren für die Daten in ihren Prognosen, aber das SES - Modell legt mehr Gewicht auf die letzten 3 Werte als das SMA - Modell und am Gleiches gilt für die Werte von mehr als 9 Perioden, wie in dieser Tabelle gezeigt: 822forget8221. Ein weiterer wichtiger Vorteil des SES-Modells gegenüber dem SMA-Modell ist, dass das SES-Modell einen Glättungsparameter verwendet, der kontinuierlich variabel ist und somit leicht optimiert werden kann Indem ein Quotsolverquot-Algorithmus verwendet wird, um den mittleren quadratischen Fehler zu minimieren. Der optimale Wert von 945 im SES-Modell für diese Serie ergibt sich wie folgt: Das Durchschnittsalter der Daten in dieser Prognose beträgt 1 / 0,2961 3,4 Perioden, was ähnlich wie bei einem 6-Term-Simple Moving ist durchschnittlich. Die Langzeitprognosen aus dem SES-Modell sind eine horizontale Gerade. Wie im SMA-Modell und dem Random-Walk-Modell ohne Wachstum. Es ist jedoch anzumerken, dass die von Statgraphics berechneten Konfidenzintervalle nun in einer vernünftigen Weise abweichen und dass sie wesentlich schmaler sind als die Konfidenzintervalle für das Zufallswegmodell. Das SES-Modell geht davon aus, dass die Reihe etwas vorhersehbarer ist als das Zufallswandermodell. Ein SES-Modell ist eigentlich ein Spezialfall eines ARIMA-Modells. So dass die statistische Theorie der ARIMA-Modelle eine solide Grundlage für die Berechnung der Konfidenzintervalle für das SES-Modell bildet. Insbesondere ist ein SES-Modell ein ARIMA-Modell mit einer nicht sonderbaren Differenz, einem MA (1) - Term und kein konstanter Term. Ansonsten als quotARIMA (0,1,1) - Modell ohne Konstantquot bekannt. Der MA (1) - Koeffizient im ARIMA-Modell entspricht der Größe 1 - 945 im SES-Modell. Wenn Sie zum Beispiel ein ARIMA-Modell (0,1,1) ohne Konstante an die hier analysierte Serie anpassen, ergibt sich der geschätzte MA (1) - Koeffizient auf 0,7029, was fast genau ein Minus von 0,2961 ist. Es ist möglich, die Annahme eines von Null verschiedenen konstanten linearen Trends zu einem SES-Modell hinzuzufügen. Dazu wird ein ARIMA-Modell mit einer nicht sonderbaren Differenz und einem MA (1) - Term mit konstantem, d. H. Einem ARIMA-Modell (0,1,1) mit konstantem Wert angegeben. Die langfristigen Prognosen haben dann einen Trend, der dem durchschnittlichen Trend über den gesamten Schätzungszeitraum entspricht. Sie können dies nicht in Verbindung mit saisonalen Anpassungen tun, da die saisonalen Anpassungsoptionen deaktiviert sind, wenn der Modelltyp auf ARIMA gesetzt ist. Sie können jedoch einen konstanten langfristigen exponentiellen Trend zu einem einfachen exponentiellen Glättungsmodell (mit oder ohne saisonale Anpassung) hinzufügen, indem Sie die Inflationsanpassungsoption im Prognoseverfahren verwenden. Die prozentuale Zinssatzquote (prozentuale Wachstumsrate) pro Periode kann als der Steigungskoeffizient in einem linearen Trendmodell geschätzt werden, das an die Daten in Verbindung mit einer natürlichen Logarithmuswandlung angepasst ist, oder es kann auf anderen unabhängigen Informationen bezüglich der langfristigen Wachstumsperspektiven beruhen . (Rückkehr nach oben.) Browns Linear (dh doppelt) Exponentielle Glättung Die SMA-Modelle und SES-Modelle gehen davon aus, dass es in den Daten keine Tendenzen gibt (die in der Regel in Ordnung sind oder zumindest nicht zu schlecht für 1- Wenn die Daten relativ verrauscht sind), und sie können modifiziert werden, um einen konstanten linearen Trend, wie oben gezeigt, zu integrieren. Was ist mit kurzfristigen Trends Wenn eine Serie eine unterschiedliche Wachstumsrate oder ein zyklisches Muster zeigt, das sich deutlich gegen das Rauschen auszeichnet, und wenn es notwendig ist, mehr als eine Periode vorher zu prognostizieren, könnte die Schätzung eines lokalen Trends auch sein Ein Problem. Das einfache exponentielle Glättungsmodell kann verallgemeinert werden, um ein lineares exponentielles Glättungsmodell (LES) zu erhalten, das lokale Schätzungen sowohl des Niveaus als auch des Trends berechnet. Das einfachste zeitvariable Trendmodell ist Browns lineares exponentielles Glättungsmodell, das zwei verschiedene geglättete Serien verwendet, die zu verschiedenen Zeitpunkten zentriert sind. Die Prognoseformel basiert auf einer Extrapolation einer Linie durch die beiden Zentren. (Eine weiterentwickelte Version dieses Modells, Holt8217s, wird unten diskutiert.) Die algebraische Form des Brown8217s linearen exponentiellen Glättungsmodells, wie die des einfachen exponentiellen Glättungsmodells, kann in einer Anzahl von unterschiedlichen, aber äquivalenten Formen ausgedrückt werden. Die quadratische quadratische Form dieses Modells wird gewöhnlich wie folgt ausgedrückt: Sei S die einfach geglättete Reihe, die durch Anwendung einfacher exponentieller Glättung auf Reihe Y erhalten wird. Das heißt, der Wert von S in der Periode t ist gegeben durch: (Erinnern wir uns, Exponentielle Glättung, so würde dies die Prognose für Y in der Periode t1 sein.) Dann sei Squot die doppelt geglättete Folge, die man erhält, indem man eine einfache exponentielle Glättung (unter Verwendung desselben 945) auf die Reihe S anwendet: Schließlich die Prognose für Ytk. Für jedes kgt1 ist gegeben durch: Dies ergibt e & sub1; & sub0; (d. h. Cheat ein Bit und die erste Prognose der tatsächlichen ersten Beobachtung gleich) und e & sub2; Y & sub2; 8211 Y & sub1; Nach denen die Prognosen unter Verwendung der obigen Gleichung erzeugt werden. Dies ergibt die gleichen Anpassungswerte wie die Formel auf der Basis von S und S, wenn diese mit S 1 S 1 Y 1 gestartet wurden. Diese Version des Modells wird auf der nächsten Seite verwendet, die eine Kombination von exponentieller Glättung mit saisonaler Anpassung veranschaulicht. Holt8217s Lineare Exponentialglättung Brown8217s LES-Modell berechnet lokale Schätzungen von Pegel und Trend durch Glätten der letzten Daten, aber die Tatsache, dass dies mit einem einzigen Glättungsparameter erfolgt, legt eine Einschränkung für die Datenmuster fest, die er anpassen kann: den Pegel und den Trend Dürfen nicht zu unabhängigen Preisen variieren. Holt8217s LES-Modell adressiert dieses Problem durch zwei Glättungskonstanten, eine für die Ebene und eine für den Trend. Zu jedem Zeitpunkt t, wie in Brown8217s-Modell, gibt es eine Schätzung L t der lokalen Ebene und eine Schätzung T t der lokalen Trend. Hier werden sie rekursiv aus dem zum Zeitpunkt t beobachteten Wert von Y und den vorherigen Schätzungen von Pegel und Trend durch zwei Gleichungen berechnet, die exponentielle Glättung separat anwenden. Wenn der geschätzte Pegel und der Trend zum Zeitpunkt t-1 L t82091 und T t-1 sind. Dann ist die Prognose für Y tshy, die zum Zeitpunkt t-1 gemacht worden wäre, gleich L t-1 T t-1. Wenn der tatsächliche Wert beobachtet wird, wird die aktualisierte Schätzung des Pegels rekursiv berechnet, indem zwischen Y tshy und seiner Prognose L t-1 T t-1 unter Verwendung von Gewichten von 945 und 1- 945 interpoliert wird. Die Änderung des geschätzten Pegels, Nämlich L t 8209 L t82091. Kann als eine verrauschte Messung des Trends zum Zeitpunkt t interpretiert werden. Die aktualisierte Schätzung des Trends wird dann rekursiv berechnet, indem zwischen L t 8209 L t82091 und der vorherigen Schätzung des Trends T t-1 interpoliert wird. Unter Verwendung der Gewichte von 946 und 1-946: Die Interpretation der Trendglättungskonstante 946 ist analog zu der Pegelglättungskonstante 945. Modelle mit kleinen Werten von 946 nehmen an, dass sich der Trend mit der Zeit nur sehr langsam ändert, während Modelle mit Größere 946 nehmen an, dass sie sich schneller ändert. Ein Modell mit einem großen 946 ist der Auffassung, dass die ferne Zukunft sehr unsicher ist, da Fehler bei der Trendschätzung bei der Prognose von mehr als einer Periode ganz wichtig werden. (Rückkehr nach oben) Die Glättungskonstanten 945 und 946 können auf übliche Weise geschätzt werden, indem der mittlere quadratische Fehler der 1-Schritt-Voraus-Prognosen minimiert wird. Wenn dies in Statgraphics getan wird, erweisen sich die Schätzungen als 945 0.3048 und 946 0,008. Der sehr geringe Wert von 946 bedeutet, dass das Modell eine sehr geringe Veränderung im Trend von einer Periode zur nächsten annimmt, so dass dieses Modell im Grunde versucht, einen langfristigen Trend abzuschätzen. In Analogie zum Durchschnittsalter der Daten, die zur Schätzung der lokalen Ebene der Serie verwendet werden, ist das Durchschnittsalter der Daten, die bei der Schätzung der lokalen Tendenz verwendet werden, proportional zu 1/946, wenn auch nicht exakt gleich es. In diesem Falle ergibt sich 1 / 0,006 125. Dies ist eine sehr genaue Zahl, da die Genauigkeit der Schätzung von 946 nicht wirklich 3 Dezimalstellen beträgt, sondern dieselbe von der gleichen Größenordnung wie die Stichprobengröße von 100 ist , So dass dieses Modell ist im Durchschnitt über eine ganze Menge Geschichte bei der Schätzung der Trend. Das Prognose-Diagramm unten zeigt, dass das LES-Modell einen etwas größeren lokalen Trend am Ende der Serie schätzt als der im SEStrend-Modell geschätzte konstante Trend. Außerdem ist der Schätzwert von 945 fast identisch mit dem, der durch Anpassen des SES-Modells mit oder ohne Trend erhalten wird, so dass dies fast das gleiche Modell ist. Nun, sehen diese aussehen wie vernünftige Prognosen für ein Modell, das soll Schätzung einer lokalen Tendenz Wenn Sie 8220eyeball8221 dieser Handlung, sieht es so aus, als ob der lokale Trend nach unten am Ende der Serie gedreht hat Was ist passiert Die Parameter dieses Modells Wurden durch Minimierung des quadratischen Fehlers von 1-Schritt-Voraus-Prognosen, nicht längerfristigen Prognosen, abgeschätzt, wobei der Trend keinen großen Unterschied macht. Wenn alles, was Sie suchen, 1-Schritt-vor-Fehler sind, sehen Sie nicht das größere Bild der Trends über (sagen) 10 oder 20 Perioden. Um dieses Modell im Einklang mit unserer Augapfel-Extrapolation der Daten zu erhalten, können wir die Trendglättungskonstante manuell anpassen, so dass sie eine kürzere Basislinie für die Trendschätzung verwendet. Wenn wir beispielsweise 946 0,1 setzen, beträgt das durchschnittliche Alter der Daten, die bei der Schätzung des lokalen Trends verwendet werden, 10 Perioden, was bedeutet, dass wir den Trend über die letzten 20 Perioden oder so mitteln. Here8217s, was das Prognose-Plot aussieht, wenn wir 946 0,1 setzen, während 945 0,3 halten. Dies scheint intuitiv vernünftig für diese Serie, obwohl es wahrscheinlich gefährlich, diesen Trend mehr als 10 Perioden in der Zukunft zu extrapolieren. Was ist mit den Fehlerstatistiken Hier ist ein Modellvergleich für die beiden oben gezeigten Modelle sowie drei SES-Modelle. Der optimale Wert von 945 für das SES-Modell beträgt etwa 0,3, aber ähnliche Ergebnisse (mit etwas mehr oder weniger Reaktionsfähigkeit) werden mit 0,5 und 0,2 erhalten. (A) Holts linearer Exp. Glättung mit alpha 0.3048 und beta 0,008 (B) Holts linear exp. Glättung mit alpha 0,3 (E) Einfache exponentielle Glättung mit alpha 0,3 (E) Einfache exponentielle Glättung mit alpha 0,2 Ihre Stats sind nahezu identisch, so dass wir wirklich die Wahl auf der Basis machen können Von 1-Schritt-Vorhersagefehlern innerhalb der Datenprobe. Wir müssen auf andere Überlegungen zurückgreifen. Wenn wir glauben, dass es sinnvoll ist, die aktuelle Trendschätzung auf das, was in den letzten 20 Perioden passiert ist, zugrunde zu legen, können wir für das LES-Modell mit 945 0,3 und 946 0,1 einen Fall machen. Wenn wir agnostisch sein wollen, ob es einen lokalen Trend gibt, dann könnte eines der SES-Modelle leichter zu erklären sein, und würde auch für die nächsten 5 oder 10 Perioden mehr Mittelprognosen geben. (Rückkehr nach oben.) Welche Art von Trend-Extrapolation am besten ist: horizontal oder linear Empirische Evidenz deutet darauf hin, dass es, wenn die Daten bereits für die Inflation angepasst wurden (wenn nötig), unprätent ist, kurzfristige lineare Werte zu extrapolieren Trends sehr weit in die Zukunft. Die heutigen Trends können sich in Zukunft aufgrund unterschiedlicher Ursachen wie Produktveralterung, verstärkte Konkurrenz und konjunkturelle Abschwünge oder Aufschwünge in einer Branche abschwächen. Aus diesem Grund führt eine einfache exponentielle Glättung oft zu einer besseren Out-of-Probe, als ansonsten erwartet werden könnte, trotz ihrer quotnaivequot horizontalen Trend-Extrapolation. Damped Trendmodifikationen des linearen exponentiellen Glättungsmodells werden in der Praxis häufig auch eingesetzt, um in seinen Trendprojektionen eine Note des Konservatismus einzuführen. Das Dämpfungs-Trend-LES-Modell kann als Spezialfall eines ARIMA-Modells, insbesondere eines ARIMA-Modells (1,1,2), implementiert werden. Es ist möglich, Konfidenzintervalle um langfristige Prognosen zu berechnen, die durch exponentielle Glättungsmodelle erzeugt werden, indem man sie als Spezialfälle von ARIMA-Modellen betrachtet. (Achtung: Nicht alle Software berechnet die Konfidenzintervalle für diese Modelle korrekt.) Die Breite der Konfidenzintervalle hängt ab von (i) dem RMS-Fehler des Modells, (ii) der Art der Glättung (einfach oder linear) (iii) dem Wert (S) der Glättungskonstante (n) und (iv) die Anzahl der Perioden vor der Prognose. Im Allgemeinen breiten sich die Intervalle schneller aus, da 945 im SES-Modell größer wird und sich viel schneller ausbreiten, wenn lineare statt einfache Glättung verwendet wird. Dieses Thema wird im Abschnitt "ARIMA-Modelle" weiter erläutert. (Zurück zum Seitenanfang.) Moore amp Moore Beratungsdienstleistungen Wertpapiere und technische Analysen Digitale Filter - Exponentialbewegungsdurchschnitte (3) Aufstieg der (Erstbestellung) EMA Wenn in der Schule viele der mathematischen Probleme eine bestimmte Gleichung vereinfachen oder machen wollten X der Gegenstand einer anderen Gleichung. Ich wußte nicht, weshalb sie so viele von ihnen machen wollten, aber im späteren Leben erkannte ich, dass dies eine Ergänzung zum Denken außerhalb des Platzes war und ein Problem aus einer anderen Perspektive betrachtete. In dem Fall, wenn die EMA bisher immer in Bezug auf eine Konstante getan wurde und diese Konstante dann auf eine andere Beziehung, die Perioden wie Tage betrifft, verwandt ist. Die Beziehungen zwischen einfachen und bewegenden Durchschnitten sind durch denselben Bereich unter beiden Kurven verbunden (ein Kalkül (2 / K) 1 wobei K eine Konstante zwischen 0 und 1 ist (wie ein Prozentsatz), wobei K das Subjekt dann K 2 / (Perioden 1) bildet und die EMA-Gleichung zunächst gegeben ist als: EMA (0) Heute K EMA (1 K) (Wo EMA (1) die EMA für den letzten Zeitraum ist) Die Kombination dieser beiden Gleichungen ergibt: EMA (0) Heute 2 / (Perioden 1) EMA (1 ) (1 2 / (Perioden 1)) (2 Heute (P 1) EMA (1)) / (P 1) Nun, dass wirklich die EMA vereinfacht, und das ist, warum ich sagte, dass die EMA ist bei weitem am einfachsten zu berechnen . P muss nicht ganzzahlig sein (ganze Zahl) Digitale Filter höherer Ordnung In der analogen Elektronik besteht ein höherwertiges Analogfilter meist aus mehreren Komponenten, in einer Leiterbildung (Serie, Shunt, Serie, Shunt) vom Eingang zum Ausgang , Und die Basis-Anzahl der reaktiven Komponenten (Kondensatoren und Spulen (Induktivitäten)) Summen bis zu Ihnen sagen, die Reihenfolge des Filters. Ich fand dies eine faszinierende Regel, und es funktionierte mit Einfachheit. Die meisten Filterhersteller haßten Coils, weil sie in der Regel arbeitsintensiv waren, schwierig, die richtigen Bauteile zu bekommen, anfällig für Montagefehler und daher teuer, und die Hersteller würden oft alles tun, um die Anzahl der Spulen zu minimieren, und dies führte zu einem Ganzen Reihe von alternativen Filter-Designs - einschließlich Digital-Filter. Solche Konstruktionen umfassten Kristall - und Keramikgitterfilter für Funk - und Kommunikationszwecke, Oberflächenwellenfilter in Fernsehgeräten, geschaltete Kondensatorfilter in der Telekommunikation, gefolgt von digitalen Filtern in CD-Playern und HiFi-Systemen und einigen Servicegeräten. Die Schönheit der digitalen Filter war, dass sie in eine so genannte digitale Signalprozessor (DSP), eine kleine integrierte Schaltung, die speziell für die Speicherung und Weiterleitung, Multiplikation und Aufteilung mit großen digitalen Worten. Die meisten DSP-Chips kommen mit erheblichen Analog-Digital-Wandlerschaltung an Bord. Bei der Untersuchung der digitalen Prozessoren und der digitalen Filtertechnologie mit dem Ziel, diese Technologie für die Sicherheitspreisanalyse zu nutzen, kam es plötzlich darauf an, dass die Taktrate für digitale Filter die doppelte Höchstfrequenz übersteigt (Nyquist-Kriterien) und vor allem die Anzahl der Stufen In vielen Filter-Algorithmen kann 100 Stufen übersteigen. Setzen Sie in EOD-Daten, wo die Taktrate 24 Stunden pro Zyklus ist, dann, wenn 200 Zyklen zu passieren, bevor jede Intelligenz zu kommen, dann wäre die Verzögerung in der Größenordnung von einem Jahr und das ist ein bisschen zu langsam Es musste Eine alternative Methode sein. Einige Untersuchungen des IIR-Filters am Anfang dieses Kapitels zeigen deutlich, daß die Standardausgabe von einer Einheitsschritt-Eingabe eine stückweise gestufte exponentielle Ladungskurve der ersten Ordnung ist. Weitere Studien in mehreren digitalen Filtertexten scheinen zu zeigen, dass Filter höherer Ordnung aus demselben Filter erster Ordnung bestehen, wobei zusätzliche Verzögerungen zu einem gemeinsamen Punkt zurückgeführt werden und ein großer Grad an digitaler Eingangswellenverzerrung (was im Grunde ein FIR erster Ordnung ist Filter) an sich. Zur Synthese von Gleichungen sind diese Filter in Serie, parallel und / oder Gitter verbunden, um die Dinge funktionieren In meinem Kopf diese waren nicht richtig und ich erkannte, dass Filter über 1. Ordnung brauchte einen anderen Blick auf als etwas fehlt im Vergleich zu konzentrierten analoge Filter fehlt. Beim Messen der Antworten von analogen Filtern, die zwei einfache physikalische Domänen, die häufig verwendet werden. Die erste ist die Frequenzdomäne und die zweite die Zeitdomäne. Wie es passiert, ist die Frequenz der Kehrwert der Zeit, aber jede Anzeige zeigt einen Filter in einem ganz anderen Licht. Die Frequenzantwort ist kritisch, wenn man den Cut-Off-Punkt eines Filters zeigt und wie stark die Out-of-Band-Reaktion gedämpft wird, während das Zeitverhalten zeigt, wie das Filter auf eine bekannte Erregung reagiert und diese Reaktionen berechnet und gemessen werden können Ist die Korrelation zwischen Theorie und Realität sehr nahe, was bedeutet, dass die mathematische Approximation, die für die Analyse und das Design verwendet wird, sehr realistisch ist. Kaskadierende Filter Im Fall einer EMA (die ein Filter erster Ordnung ist), ist das Zeitverhalten auf eine Stufeneingabe Ist eine exponentielle Ladungskurve, und dies wurde in der ersten Grafik in diesem Kapitel gezeigt. Es ist gut dokumentiert und wurde getötet. Im Frequenzbereich ist die Reaktion auf eine Swept-Frequenz jedoch nicht verknüpft worden und folgt dem folgenden Diagramm, dass es einen Frequenzabschaltpunkt von 3 dB (Halbleistung) und Oberhalb dieser Frequenz folgt die Leistung asymptotisch einer 20-dB / Dekaden-Linie, wie auf einem logarithmischen Frequenzdiagramm unten gezeigt. Die beiden obigen Graphen zeigen den Zeit - und Frequenzgang eines Filters erster Ordnung mit einer Frequenzabschaltung bei 1 Hz. Durch direkten Zusammenhang mit der obigen kontinuierlichen Zeitkurve kreuzen sich die 80 Markierungen bei etwa 250 ms und wir wissen, dass der 3-dB-Punkt bei 1 Hz liegt, wie in der rechten Grafik gezeigt ist und dass 1 Hz eine Zykluszeit von 1 hat Sec, was 4 mal 250 ms beträgt. Mit dem SMA20 als Standard bewegt sich die Einheitsschrittzeitantwort von 0 auf 100 in 20 Proben und erreicht etwa 80 bei etwa 16 Proben, und ein EMA20 kreuzt an etwa demselben (80) Punkt. So haben wir eine direkte Korrelation zwischen der SMA und der EMA im Zeitbereich und einem ähnlichen Frequenzkorrelationspunkt (3 dB) im Frequenzbereich. In Bezug auf diese 16 Proben, geteilt durch 4 mal, ergibt sich eine normalisierte Frequenz von etwa 4 Hz, was bedeutet, daß die normierte Dämpfung (bezogen auf 1 Hz als normalisierte Frequenzreferenz) etwa 12,5 dB für ein Filter der ersten Ordnung auf der Basis von 20 Tagen beträgt (EMA20). Ein EMA40-Filter würde 32 Abtastungen für den 80 transienten Punkt gleichsetzen, und in normalisierten Frequenztermen, die sich auf etwa 8 Hz beziehen und die tägliche Handelsrauschdämpfung etwa 18 dB betragen würde. Dies führt dazu, dass eine längere EMA und / oder SMA ein glatteres Ergebnis ergibt als eine kürzere EMA oder SMA, aber ein Signal-Rausch-Verhältnis (SNR) von weniger als 20 dB nach der Filterung ist kaum zu reinigen. Die übliche Praxis ist es, die 10 und 90 Punkte in der Anstiegszeit, mit anderen Worten die 10 Punkte aus Anregung und Absetzen als die Markierungen zu verwenden. Dies kommt immer noch mit insgesamt 80, sondern zentriert sich auf die gesamte Bewegung, im Gegensatz zu konzentrieren sich auf das Endergebnis nur. In der Kontrolltheorie sind 1. Ordnungssysteme selten und der Faktor von 250 ms für 0 bis 80 bewegt sich auf etwa 285 ms für 10 bis 90 und verändert den reziproken Wert auf etwa 3,5 anstelle des ursprünglichen 4, aber die Annäherung ist nahe genug 1. Ordnung-Filter Also, was würde passieren, wenn wir eine 1. Ordnung EMA gefolgt von einer anderen 1. EMA (in Kaskade), mit anderen Worten die Ausgabe von einer Fütterung in den Eingang eines anderen Wir könnten sie so eingestellt, dass die Endzeit Antworten Waren bei der 80-Marke annähernd gleich, und das Ergebnis wäre ein leicht überdämpfter Filter zweiter Ordnung mit einer Frequenzabsenkung von etwa 40 dB pro Jahrzehnt gegenüber 20 dB pro Jahrzehnt, wie zuvor doppelt so steil Muss die Grenzfrequenz um das 1,4-fache normalisiert werden, um die Zeitverlaufskurve an der 80-Markierung wie unten gezeigt auszurichten: Vergleichen Sie die dB-Skalen auf den rechten Graphen für die kontinuierliche Frequenzreaktion und Sie werden sehen, dass der Frequenzgang gedämpft wird Um etwa 35 dB, wobei der obige Graph die Dämpfung nur 20 dB beträgt. Dies ist ein großer Unterschied, da dies bedeutet, dass das Handelsgeräusch erheblich reduziert werden kann. In der Praxis hat die Verwendung von zwei EMA11.2 kaskadiert einen Gesamtabschaltpunkt von 3 dB, der dem eines EMA20-Filters erster Ordnung sehr nahe kommt, und der resultierende Frequenzgang ist Sehr nahe bei dem rechten Diagramm, was bedeutet, dass die Handelsdämpfung etwa 18 dB nach unten durch dieses Filter anstelle von 12,5 dB beträgt und wenn auf der Basis eines 40EMA dann das EOD-Rauschen um etwa 31 dB anstelle von 18 dB gedämpft würde. Dies ist wesentlich besser als die 1. Ordnung EMA und die Zeitverhaltenskurve nähert sich einer schärferen SMA Zeitantwortkurve und ist schärfer, was bedeutet, dass der Cutover schärfer ist. Die immense Problem der technischen Analyse ist, dass 99,9 von allen Menschen, die sich technische Analysten nennen, nicht verstehen, dass die Transient Response ist, was sie tatsächlich suchen und ihre Entscheidungen auf Es dauert ziemlich lange, um zu verstehen, dass die Transient Response of First Bestellen EMA (wie von fast allen technischen Analysten verwendet) ist deutlich schlechter als die einer ersten Bestellung SMA oder eine zweite Bestellung EMA. Das Problem ist, dass die erste Ordnung EMA eine exponentielle Angriffs - / Abkling-Reaktion hat, die anfänglich zu schnell wirkt und dann der Schwanz viel zu langsam wirkt und normalerweise dieser lange Schwanz mit dem nächsten Angriff oder Zerfall so interferiert, dass Überkreuzungen eher Tangenten als Kreuzungen werden, Entscheidungen eher vage und unentschlossen im Vergleich zu Crossovers bei der Verwendung von SMAs. Im Allgemeinen werden EMAs von Programmierern bevorzugt, weil sie im Vergleich zu programmierenden SMAs sehr einfach zu programmieren sind, und folglich verwenden die meisten Signalisierungsindikatoren, die von vielen technischen Analysten verwendet werden, eine riesige Anzahl von Indikatoren, die in der ersten Zeit leider fehlerhaft sind Weil die meisten dieser Indikatoren auf First-Order-EMAs basieren, um ihre lärmenden Daten zu glätten, um ihre Signale zu generieren. Die ursprüngliche Arbeit, die in diesen Web-Seiten gezeigt wird, zeigt, wie und wo EMAs das eingehende Signal nicht so gut verfolgen wie SMAs und das dort Ist ein Workaround der Art, dass eine Second-Order-EMA (mit einem leichten Überschwingen aus einer Step-Erregung) der SMA-Trajektorie viel näher kommt als eine First Order EMA und die Second Order EMA kann eher einfacher programmiert werden als ein SMA. Kaskadierte abgeschnittene EMA Eine interessante Wendung für die exponentielle Schwanzproblematik, die sowohl die DEMA als auch die TEMA leiden, ist, dass weder eine Taktverzögerung in ihre Formeln eingebaut ist, bevor sie einen anderen Exponential mit den gleichen Zerfallseigenschaften wie den ersten Exponential subtrahieren Glauben), warum sie nicht arbeiten Wenn die ursprüngliche Exponentialzahl durch das 1,2-fache multipliziert wird und dann ein zweites Exponential mit der gleichen Abklingcharakteristik von dem verstärkten Signal subtrahiert wird, dann wird das zweite Exponential (mit einem klinischen Schritt-Eingang) abgebrochen Der Schwanz des ersten Exponentials und führt zu einer konstanten Ausgabe von dieser Zeit aus einer Stufeneingabe. Dies ist im Grunde ein Paar von kaskadierten Exponentialen, aber eines ist verzögert und abgeschnitten Ein klinisches Beispiel dessen, was ich meine, ist in der unteren linken Grafik gezeigt. Die Z-Notation bezieht sich auf eine digitale Periodenverzögerung, Z00 bedeutet eine Verzögerung von Nullperioden, Z26 bedeutet 26 Periodenverzögerung. Diese linke Kurve hat die Gleichung: CTEMA01 100 (1,20 EMA29 (Z00) 0,20 EMA29 (Z26) Bei der Übersetzung in die Metastock-Gleichungssprache wird die Aussage zu: CTEMA29 1,20 mov (Close, 29, E) 0,20 ref (mov (Close, 29, E), - 26) In der Praxis wird in der oben dargestellten rechten Graphik die abgeschnittene exponentielle (CTEMA ) Ist die ROT-Linie, die unter dem schwarzen (SMA) Peak und oberhalb des grünen (EMA) Peaks sitzt. Also die CTEMA nur etwas unter-performt die SMA, aber gut übertrifft die EMA und so die CTEMA zeigt unglaubliche Versprechen Wie gezeigt, bevor diese Kurve ist normalisiert, um Crossover an der 80-Punkt, so dass ein direkter Vergleich mit einem zwei gleitenden Durchschnitt ist ein wenig Etwas schwieriger, da auch der Verzögerungsfaktor berücksichtigt werden muss. Im Vergleich zu einem SMA 26/16 Crossover ist auf der linken Seite der CTEMA 26/16 und auf der rechten Seite der SMA 26/16 dargestellt, der deutlich besser ist als der DEMA und TEMA und EMA. Bei der Normierung des CTEMA-Indikators war das CTEMA26 (EMA38, Z34) und das CTEMA16 (EMA23, Z21). Es ist nun klar, daß der Verzögerungsfaktor viel zu lang ist, um wirksam zu sein, und daher muß ein allgemeiner Fall entwickelt werden, der aus mehreren Paaren besteht. In einer allgemeineren Form würde diese gepaarte subtraktive Exponentialgleichung die Form annehmen: CTEMA (n) (K1a EMA (P1) (Z1a) K1b EMA (P1) (Z1b-Z1a)) Natürlich kann diese Gleichungseinheit erweitert werden Eine Familie von Paaren von Exponentialen als stückweise lineare Teile, um, je nach Bedarf, praktisch jede beliebige Stehform aufzubauen, aber die Gesamtzahl der negativen Glieder in der Gleichung muß gleich der Gesamtzahl der positiven Glieder sein. Im trivialen Fall ist der Koeffizient des einzigen negativen Terms tatsächlich Null. Strukturierung der zweiten Ordnung EMA Nachdem wir nun eine sehr einfache Formel zur Berechnung der ersten Ordnung EMA haben, kann diese Formel leicht erweitert werden, um eine zweite Ordnung EMA (SOEMA ), Und mit ein wenig Fummeln mit ein paar Tabellenkalkulationen kann die SOEMA konstruiert werden, um über ein 2.3 Überschwingen und einen ziemlich glatten (fast linearen Übergang von Null bis 100 aus einer klinischen Schritt Anregung haben. Hier sind die Formeln: Temp 1.2 Heute SOEMA (0) (P 1) SOEMA (1) / (P 1) SOEMA (1) SOEMAInter (0) Beachten Sie, dass die Periode (P) auf 0,8 gesetzt ist, die tatsächlichen Perioden, so dass, wenn Sie eine 30CEDMA als die Periodeneinstellung tatsächlich 24 und nicht 30 wollen. Wieder P (Periode) muss nicht eine ganze Zahl sein Diese drei oben genannten Gleichungen geben Die neuen Zwischen - und Endwerte für SOEMA und die alten gleichzeitig verwenden, so dass der Übergang von einer EMA zu einer SOEMA keine große Sache ist Für die SOEMA, weil sie eine Kaskadierung von Ergebnissen beinhaltet, müssen Sie eine andere Variable das alte SOEMA-Zwischenprodukt speichern Wert. Dieser Zwischenwert wird aus der zweiten Gleichung oben erzeugt und an zwei Stellen der nächsten unmittelbaren Gleichung und der nächsten Probe danach verwendet. Deshalb muss es gerettet werden, zusammen mit dem neuen SOEMA-Wert. Programming Moving Averages Jetzt mehr denn je die transiente Antwort der einfachen EMA muss erneut besucht werden und Anpassungen vorgenommen, um die Antwort zu korrigieren. Klinische Tests haben gezeigt, dass in der Praxis die SMA schwierig einzurichten und zu berechnen ist und die EMA viel einfacher zu ermitteln und zu berechnen ist, viel einfacher zu etablieren und leider eine Antwortkurve hat, die zu früh und zu lange inaktiv ist, Sind die DEMA und TEMA (meiner Meinung nach) beide Fehler, und das Dreieck (gewichtetes SMA) ist schwierig einzurichten, hat aber eine gute (fast ideale) transiente Antwortform. Die kaskadierte abgeschnittene EMA (CTEMA) ist schwieriger einzurichten, hat jedoch eine nahezu ideale Reaktionsform und eine wesentlich bessere Rauschunterdrückung als alle anderen, und das bedeutet, dass meine bevorzugte Reihenfolge für die Antwortform in absteigender Reihenfolge SMA, CTEMA, TSMA ist , SMA, EMA, DEMA, TEMA. Die einfache Einrichtung für Berechnungen (auch in absteigender Reihenfolge) ist EMA, DEMA, TEMA, SMA, TSMA, CTEMA. Meiner Meinung nach betrachte ich die Nutzlosigkeit von TEMA und DEMA, und die Gewichtungsfaktoren für die TSMA verlässt dies drei gleitenden Durchschnittsschulen des Denkens, die SMA, EMA und CTEMA sind. Wenn die CTEMA realistisch betrachtet werden soll, da sie die beste transiente Antwort hat, dann muss ein Zwischentermin in der Datenbank sowie der alte CTEMA-Wert gespeichert werden, und alle zukünftigen Info-Basen müssen in diesem Sinne eingerichtet werden. So verwendet eine erste Order-EMA den letzten Wert, eine zweite Order den letzten Wert und einen anderen temporären Wert, eine dritte Order-EMA würde zwei temporäre Werte haben usw. Mit dieser veränderten Info-Base-Management-Struktur im Kopf vereinfacht dies nun den Berechnungsprozess erheblich SOEMA und die Leichtigkeit beim Aufbauen für die Berechnung wird jetzt (in absteigender Reihenfolge) EMA, SOEMA, SMA. In Anbetracht dessen, dass SOEMA eine nahezu ideale transiente Antwort liefert, sollte der standardmäßige gleitende Durchschnitt immer mit dem SOEMA berechnet werden. Für die Konsistenz muss die transiente Antwort (bezüglich einer Stufeneingabe) eine nahezu gerade Linie von der Initialisierung bis zur Vollendung und eine Erste Ordnung sein EMA scheitert diese einfache Test Hände nach unten. Eine zweite Bestellung EMA (oder Cascaded EMA) ist wesentlich konsistenter, und es ist oft viel einfacher zu konstruieren als ein SMA, aber die transienten Antworten müssen korreliert werden, um Konsistenz der Zweck zu erhalten. In der Praxis arbeitet die Second Order EMA (SOEMA) sehr gut, indem sie (wie erwartet) glatter ist als ein gleitender Durchschnitt erster Ordnung. In der Grafik oben links ist der SMA20 (in BLACK) und Peaks am höchsten und verfolgt das beste - und es sollte so sein, wie es von seinem Eingang konsistent ist. Die EMA20 (in RED) krümmt sich um den Spitzenwert, der am niedrigsten ist, wie erwartet, da die EMA weniger Aufmerksamkeit von weniger jüngsten Eingangsdaten aufgrund seines Schleppschwanzes nimmt. Die SOEMA20 (in GREEN) richtet sich eng mit dem SMA20 aus. Diese SOEMA20 erholt sich im Einklang mit der SMA. Inzwischen sieht die EMA ein wenig schief aus, da sie zu schnell ansteigt und auf der linken Seite der beiden anderen auftaucht, was anzeigt, daß die EMA-Zeitkonstante (Perioden) zu kurz ist und daß die äquivalente Zeitkonstante mit einem EMA23 oder etwa übereinstimmen könnte 15 langsamer als es derzeit mit dem SMA20 verglichen wird. Zum Vergleich wird der EMA20 in einen EMA23 geändert und auf der rechten unteren Grafik dargestellt. Die EMA23 (in RED) verfolgt die SMA20 (in BLACK) und die SOEMA20 (in GREEN) genauer. Ist wieder sehr glatt, aber die EMA23 (in RED) wackelt, zeigt, dass es mehr Handel Lärm betroffen als die SMA20 (schwarz) oder die SOEMA20 (grün) ist. Wenn das SOEMA20 (CEMA20) in GREEN ein leichtes Überschwingen in seiner Zeitantwort hatte, dann wäre es nicht nur leiser, sondern es hätte auch eine schärfere Einschwingantwort. Durch eine gewisse Rückkopplung zum Gesamtfilter und Verlängerung der Zeitkonstanten nimmt das Filter eine neue Dimension mit steilerem Übergang und ein sehr geringes Überschwingen um etwa 1 auf, aber nichts wie das der DEMA oder noch schlimmer noch das TEMA. In diesem Fall war die Metastock-Gleichung Mov (Mov (1.5CLOSE - 0.5 PREV, 16.5, E), 16.5, E), was zu einer Gesamtüberkreuzung bei etwa dem 16. Schritt in einer 20 EMA-Betrachtung führte, aber die Gesamtanstiegszeit ist Wesentlich schneller und symmetrischer als eine kaskadierte EMA ohne Feedback. Durch geringfügiges Erhöhen des Überschwingens auf etwa 2,3 durch Ändern der Rückkopplungskonstante und Ändern der Exponentialkonstanten auf 18,2, um die Kurve mit dem Standardübergang bei 80 wieder auszurichten, sieht diese Antwort dann sogar besser aus. Die dunkle Linie im obigen linken Diagramm zeigt die transiente Ausgangsreaktion von einem Stufeneingang mit etwa 2,3 Überschwingen, und die obige rechte Grafik zeigt die glatte, gerundete und im wesentlichen leise SOEMA20 (Royal Blue) mit Rückkopplung. Die SOEMA20 mit einem kleinen Überschwingen verfolgt die SMA sehr genau und das leichte Überschwingen lässt die transiente Bahn besser als der kritische Transient mit nominell keinem Überschwingen. Dieses SOEMA mit seiner charakteristischen geringfügigen Verzögerung beim Treten und hat ein kleines Überschwingen, das ihm einen glatteren Gipfel und folgenden Trog gibt, und, im Gegensatz zum SMA, eignet er sich zur Gewichtung on the fly durch Einstellen der Zeitkonstanten. In Metastock-Ausdrücken ist die Gleichung für eine kaskadierte EMA, die wie ein SMA 20 aussieht: Mov (Mov (Mov (Mov (Mov, 1.7CLOSE - 0.7 PREV, 18.2, E), 18.2, E) Natürlich wird dies nicht funktionieren, da Metastock ganze Zahlen benötigt Ein wenig seitliches Denken und Normalisieren dieses kann nicht zu schwierig sein, zu einem praktischen Filter zu machen. Das andere Problem ist, dass der Schwanz sollte eine gedämpfte Oszillation und es ist nicht, was darauf hinweist, dass die Struktur dieses ist nicht ganz richtig, aber ist viel besser als eine EMA zum Dämpfen EOD-Rauschen. Vergleich von einfachen und exponentiellen Bewegungsdurchschnitten (2009) Jetzt haben wir erkannt, dass es die Transiente ist, die alle wichtig sind, wenn wir bewegte Durchschnitte verwenden, um das Handelsgeräusch zu glätten, und dass die (erste Ordnung) EMA einen sehr anderen Schritt erregt hat Als die SMA, und dass die Periodizität für (erste Ordnung) EMAs nicht im Einklang mit SMAs ist, weil, wenn der dicke schwere Schwanz in der (ersten Ordnung) EMAs. Um dies zu beherrschen, haben die beiden folgenden Graphen die gleichen EOD-Daten zur gleichen Zeit, aber die beiden Sätze der gleitenden Mittelwerte buchstabieren eine ganz andere Melodie: Dies ist die alte Favorit zwei EMA, und sehen, wie nach dem ersten Anstieg der EMAs kreuzen und bleiben so, so dass Sie denken, im Handel bleiben, aber einen Blick unten und erkennen, dass die beiden SMAs unten haben praktisch die gleiche vorübergehende Antwort und keine großen großen dicken schleppenden Schwanz, der tatsächlich die Fähigkeit zu kompromittiert Den gleitenden Durchschnitt, um dem Trend zu folgen: Hier ist die gleiche Grafik mit einem zwei SMA gleichwertigen transienten Antwort nach den gleichen EOD-Daten über den gleichen Zeitraum. Beachten Sie, dass die Green SMA tatsächlich auf den Preis folgt, und ja die beiden gleitenden Durchschnitte kollidieren (und vorübergehend kreuzen), während der Sicherheitspreis plateaued, aber nimmt wieder auf und tritt in viel wie die beiden EMA vor. Die EMA-Spur tritt tatsächlich schneller auf, aber dies ist normalerweise von früheren Bewegungen überschwemmt, so dass das Endergebnis ist, dass die EMA nicht in Wirklichkeit schneller treten, und die exponentielle Schwanz macht die (erste Bestellung) EMA eine sehr schlechte Cousine an die SMA. Es ist vielleicht nicht offensichtlich, aber wenn Sie (erste Bestellung) EMAs als Indikator Glättung Werkzeug (wie in einem MACD), dann mit Hilfe von EMAs gibt es ein inhärentes Problem, da die resultierende Trigger wird weit mehr durch eine (erste Auftrag) EMA als ein SMA, und Vermutung, was die technischen Analytiker en-masse Verwendung EMAs in ihren MACDs, so systematisch dieser Indikator (und viele andere) wird auch etwas fehlerhaft sein Copyright Malcolm Moore, 2003-2004, 2009. Kommentare und Korrekturen sind WillkommenDer Wissenschaftler und Ingenieure Leitfaden für digitale Signalverarbeitung Von Steven W. Smith, Ph. D. Kapitel 14: Einführung in digitale Filter Hochpass-, Bandpass - und Bandsperrfilter Hochpass-, Bandpass - und Bandsperrfilter werden so entworfen, dass sie mit einem Tiefpaßfilter beginnen und es dann in die gewünschte Antwort umwandeln . Aus diesem Grund geben die meisten Diskussionen zum Filterdesign nur Beispiele für Tiefpaßfilter. Es gibt zwei Verfahren für die Tiefpass-Hochpaßumwandlung: spektrale Inversion und spektrale Umkehrung. Beide sind gleich nützlich. Ein Beispiel der spektralen Inversion ist in 14-5 gezeigt. Abbildung (a) zeigt einen Tiefpaßfilterkern, der als windowed-sinc bezeichnet wird (das Thema von Kapitel 16). Dieser Filterkernel hat eine Länge von 51 Punkten, obwohl viele der Samples einen so kleinen Wert haben, dass sie in diesem Graphen Null zu sein scheinen. Der entsprechende Frequenzgang wird in (b) gezeigt, gefunden durch Hinzufügen von 13 Nullen zum Filterkern und unter Verwendung einer 64-Punkt-FFT. Zwei Dinge müssen getan werden, um den Tiefpaßfilterkernel in einen Hochpaßfilterkernel zu ändern. Zuerst ändern Sie das Vorzeichen der einzelnen Samples im Filterkernel. Zweitens, fügen Sie eine zur Probe in der Mitte der Symmetrie. Dies führt zu dem in (c) gezeigten Hochpaßfilterkern mit dem in (d) gezeigten Frequenzgang. Spektrale Inversion spiegelt den Frequenzgang von oben nach unten. Ändern der Passbänder in Stoppbänder und der Stoppbänder in Passbänder. Mit anderen Worten, er ändert einen Filter von Tiefpaß zu Hochpaß, Hochpaß zu Tiefpaß, Bandpaß zu Bandspur oder Bandspur zu Bandpaß. Abbildung 14-6 zeigt, warum diese zweistufige Modifikation des Zeitbereichs zu einem invertierten Frequenzspektrum führt. In (a) wird das Eingangssignal x n parallel an zwei Systeme angelegt. Eines dieser Systeme ist ein Tiefpassfilter mit einer Impulsantwort, die durch h n gegeben ist. Das andere System tut nichts für das Signal und hat daher eine Impulsantwort, die eine Delta-Funktion ist, delta n. Der Gesamtausgang y n ist gleich dem Ausgang des Allpass-Systems minus dem Ausgang des Tiefpaßsystems. Da die niederfrequenten Komponenten von dem ursprünglichen Signal subtrahiert werden, erscheinen nur die hochfrequenten Komponenten in dem Ausgang. Somit wird ein Hochpaßfilter gebildet. Dies könnte als ein zweistufiger Vorgang in einem Computerprogramm ausgeführt werden: Durchlaufen des Signals durch ein Tiefpassfilter und dann Subtrahieren des gefilterten Signals von dem Original. Jedoch kann der gesamte Vorgang in einer Signalstufe durch Kombinieren der beiden Filterkerne durchgeführt werden. Wie in Kapitel 7 beschrieben, können parallele Systeme mit addierten Ausgängen durch Hinzufügen ihrer Impulsantworten zu einer einzigen Stufe kombiniert werden. Wie in (b) gezeigt, ist der Filterkernel für den Hochpassfilter gegeben durch: delta n - h n. Das heißt, ändern Sie das Vorzeichen aller Proben, und fügen Sie dann ein, um die Probe in der Mitte der Symmetrie. Damit diese Technik funktioniert, müssen die Niederfrequenzkomponenten, die aus dem Tiefpassfilter austreten, dieselbe Phase wie die Niederfrequenzkomponenten haben, die das Allpass-System verlassen. Andernfalls kann keine vollständige Subtraktion erfolgen. Dies stellt zwei Einschränkungen für das Verfahren dar: (1) Der ursprüngliche Filterkernel muß eine Links-Rechts-Symmetrie haben (d. h. eine Null - oder Linearphase), und (2) der Impuls muß in der Mitte der Symmetrie addiert werden. Das zweite Verfahren zur Tiefpaß - zu Hochpaßumwandlung, spektrale Umkehrung. Ist in Fig. 2 dargestellt. 14-7. Genau wie zuvor entspricht der Tiefpaßfilterkernel in (a) dem Frequenzgang in (b). Der Hochpaßfilterkernel (c) wird durch Ändern des Vorzeichens jeder zweiten Abtastung in (a) gebildet. Wie in (d) gezeigt, kippt dies den Frequenzbereich von links nach rechts. 0 zu 0,5 und 0,5 zu 0. Die Grenzfrequenz des Beispiel-Tiefpaßfilters beträgt 0,15, was dazu führt, daß die Grenzfrequenz des Hochpaßfilters 0,35 beträgt. Das Ändern des Vorzeichens jeder zweiten Abtastung ist äquivalent zum Multiplizieren des Filterkerns mit einer Sinuskurve mit einer Frequenz von 0,5. Wie in Kapitel 10 erörtert, hat dies die Wirkung, den Frequenzbereich um 0,5 zu verschieben. Betrachten Sie (b) und stellen Sie sich die negativen Frequenzen zwischen -0,5 und 0 vor, die ein Spiegelbild der Frequenzen zwischen 0 und 0,5 sind. Die in (d) auftretenden Frequenzen sind die negativen Frequenzen von (b), die um 0,5 verschoben sind. Schließlich zeigen Fig. 14-8 und 14-9 zeigen, wie Tiefpaß - und Hochpaßfilterkerne zu Bandpass - und Bandsperrfiltern kombiniert werden können. Kurz gesagt, das Hinzufügen der Filterkerne erzeugt ein Bandsperrfilter, während das Zusammenfalten der Filterkerne ein Bandpaßfilter erzeugt. Diese basieren auf der Art und Weise, wie kaskadierte und parallele Systeme kombiniert werden, wie in Kapitel 7 diskutiert wird. Es können auch mehrere Kombinationen dieser Techniken verwendet werden. Zum Beispiel kann ein Bandpassfilter konstruiert werden, indem die beiden Filterkerne zu einem Bandpaßfilter addiert werden und dann eine spektrale Inversion oder spektrale Umkehrung, wie zuvor beschrieben, verwendet werden. All these techniques work very well with few surprises.


Comments