Ich habe es noch nicht! Deshalb wollte ich Sie um Ihren Rat fragen, ob es sich lohnt, sich auf all das einzulassen. Wer denkt darüber nach?
Ich habe es noch nicht! Deshalb wollte ich Sie um Ihren Rat fragen, ob es sich lohnt, sich auf all das einzulassen. Wer denkt darüber nach?
Können wir mit der Party weitermachen?
Seryoga hi! (Ich habe eine Nachricht für dich in einem benachbarten Thread hinterlassen, ich hoffe du hast sie gesehen :)
ALLE SIMPLER!!!!! Meine Idee war ganz einfach - und die Hände kamen nicht wirklich dazu. Es ist nicht nötig, hier und da etwas zu machen. Eine perfekte Annäherung an die Niederfrequenzkomponente wäre wie folgt:
[1/Fenster*(SUM Vergangenheit pro Fenster)+ 1/Fenster*(SUM , zukünftige Werte pro Fenster)/2
Es geht also darum, einen Durchschnitt für ein bestimmtes Zeitfenster vorherzusagen. Und sie kann durch Autokorrelationsmethoden vorhergesagt werden. Ich bin mir zu 100 % sicher, dass sie viel zuverlässiger und genauer funktionieren wird. Betrachten Sie es als einen adaptiven Miniaturfilter.
Es kann der "Geist" verbessert werden
nach Vinin
Schreiben Sie uns Ihre Meinung - es wird eine Fortsetzung geben!
zu grasn
Hallo Sergej!
Natürlich habe ich das. Sie (Ihre Überlegungen) waren es, die mich auf die Idee der nichtharmonischen Synthese gebracht haben. Leider scheiterten alle meine Versuche, mit Autokorrelationsmethoden Vorhersagen zu treffen, am Ereignishorizont. Wir brauchen nichtlineare Korrelationsmethoden mit Elementen der Anpassung.
zu grasn
Hallo, Sergej!
Natürlich habe ich es gelesen. Sie (Ihre Überlegungen) sind es, die mich auf die Idee der nichtharmonischen Verschmelzung gebracht haben. Leider sind alle meine Versuche, mit Autokorrelationsmethoden Vorhersagen zu treffen, am Ereignishorizont gescheitert. Hier sind nichtlineare Korrelationsmethoden mit Elementen der Anpassung gefragt.
Nein, nein, nein, nein. Wenn Sie die Zeitreihe anhand des vorhergesagten Mittelwerts rekonstruieren, wird das nicht funktionieren, da es große Fehler gibt. Das brauchen wir nicht, wir müssen die lokalen Extremwerte der vorhergesagten "idealen LF-Kurve" auswerten, die eigentlich Pivot-Zonen sind!!!! Sie sollten weniger anspruchsvoll sein :o)
Ich würde sehen, wie sich die Gewichte in der Geschichte verhalten. Das heißt, ich würde einen Indikator mit drei Puffern erstellen: w1, w2 und w3.
Kein Problem. Nur was wird sie uns bringen? Es liegt auf der Hand, dass sie sich regelmäßig mit einer kleineren Schwankungsperiode verhalten, da sie die Lösung einer kubischen Gleichung sind.
Nein, nein, nein, nein. Wenn Sie die Zeitreihe anhand des vorhergesagten Mittelwerts rekonstruieren, wird das nicht funktionieren, da es große Fehler gibt. Das brauchen wir nicht, wir müssen die lokalen Extremwerte der vorhergesagten "idealen LF-Kurve" abschätzen, und das sind eigentlich die Pivot-Zonen!!!! Man sollte weniger anspruchsvoll sein :o)
Hier verstehe ich es nicht!
Dort gibt es keine stabilen Beziehungen.
Nein, nein, nein, nein. Wenn Sie die Zeitreihe anhand des vorhergesagten Mittelwerts rekonstruieren, wird das nicht funktionieren, da es große Fehler gibt. Das brauchen wir nicht, wir müssen die lokalen Extremwerte der vorhergesagten "idealen LF-Kurve" abschätzen, und das sind eigentlich die Pivot-Zonen!!!! Man sollte weniger anspruchsvoll sein :o)
Hier verstehe ich es nicht!
Dort gibt es keine stabilen Beziehungen.
Und Ihre nichtharmonische Analyse habe ich auch nicht verstanden. Wer ist das perfekte Derivat und woher kommt es? Ich wäre Ihnen dankbar, wenn Sie das Wesen Ihrer Analyse Schritt für Schritt erklären würden (ich glaube, ich bin nicht der Einzige).
In der Zwischenzeit werde ich in Matkadec herumstöbern und in ein paar Tagen oder früher (ich bin sehr statistisch veranlagt) eine detaillierte Beschreibung meiner Idee geben :o)
PS: vielleicht bringt ihre Integration etwas Interessantes hervor :o)
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Hier ist ein Gedanke, der mich erregt.
Nehmen wir den gebräuchlichsten Assistenten mit einem N-Mittelungsfenster. Wir lassen die Zeitreihe (RT) vorwärts und rückwärts durchlaufen, eliminieren so die Gruppen- und Phasenverzögerung und erhalten eine ideale geglättete Kurve, deren erste Ableitung optimal die Ein- und Austrittspunkte anzeigt... allerdings nur auf der Grundlage historischer Daten.
Er hängt mit der unvermeidlichen Überschärfung am rechten Rand der Daten zusammen, und je weiter wir uns in die Geschichte zurückziehen, desto weniger wird uns dieser Effekt betreffen. Im Grenzfall kann sie in einem Abstand N von der Vorderkante vernachlässigt werden. Wir haben also die Aufgabe, diese Ableitung für N Takte vorauszusagen (Abb. links).
Wir können es auch anders machen. Führen wir nur einen geraden Durchlauf der Maske durch, so erhalten wir eine Standardglättung, an die wir uns alle schon längst gewöhnt haben, mit N/2 Verzögerung (Abb. rechts). Die Aufgabe kann als Vorhersage von Ableitungswerten für N/2 Takte im Voraus gestellt werden. Übrigens ist sowohl in der linken als auch in der rechten Abbildung N so gewählt, dass die LPF-Bandbreite ungefähr gleich ist - 100 Balken für ein Zweipass-Schema (links) und 200 Balken für einen geraden Lauf (rechts). Wir müssen also für die gleiche Anzahl von Balken die gleiche Vorhersage treffen, aber die Ableitung ist beim Double-Pass-Schema glatter, was eine bessere Vorhersagegenauigkeit bedeutet.
Ich möchte gleich anmerken, dass alle Versuche, mit den "üblichen" Methoden Vorhersagen zu treffen, zu keinem positiven Ergebnis führen werden, denn sobald wir uns dem Ereignishorizont (N/2 oder N) nähern, nimmt die Vorhersagegenauigkeit rapide ab und geht am Horizont selbst gegen Null. Dies ist die grundlegende Eigenschaft von BP...
Also habe ich mir überlegt, was wäre, wenn ich für einen bestimmten BP einen Fächer von One-Pass-Mashups mit Schritt 1, beginnend mit N=2 oder sogar 1 und bis zu 1000 zum Beispiel, erstellen würde. Es ist klar, dass die Informativität benachbarter Wischvorgänge nicht sehr unterschiedlich ist. Konstruieren wir also eine Autokorrelationsfunktion, die die "Ähnlichkeit" benachbarter Wischvorgänge (oder ihrer Ableitungen) anzeigt. Wie zu erwarten, ist eine Reihe aufeinander folgender Abstriche hoch korreliert (Abbildung links):
Da die Aussagekraft von korrelierten Instrumenten gering ist, werden wir die Abstrichserien ausdünnen und nur diejenigen belassen, deren Korrelationskoeffizient zwischen ihnen 20 % nicht überschreitet. Es gibt nur noch drei davon - mit einem Mittelungsfenster von 6, 80 und 300 Takten. Wir nehmen nun die gewichtete Summe der Werte der nachlaufenden Balken und setzen sie mit der idealen Ableitung gleich (die rote dicke Linie in Abb. rechts): dMA=w1*dMA1+w2*dMA2+w3*dMA3.
Wir sollten drei solcher Gleichungen für drei aufeinanderfolgende Balken auf der rechten Seite der Geschichte minus N/2 konstruieren (um Chattering zu vermeiden), sie in Bezug auf die Gewichte w lösen und den Wert von dMA auf der rechten Seite von BP berechnen. Das war's! Wir erhalten den Vorhersagewert, der die erwartete Richtung von BP angibt.
Man erhält eine Art nichtharmonische Analyse :-)