Das geht Mashka nichts an! - Seite 5

 
Neutron:

Das erhält man, wenn der Addierer nicht in die nacheilenden Mashups, sondern in sich selbst eintaucht :-), d.h. in die erste Ableitung des idealen MA.

Das Einzige, was noch bleibt, ist, einen idealen MA zu finden. Probieren Sie den echten Djuric. Nicht ideal, aber doch nahe dran. Und es ist auch ziemlich glatt.

 
Neutron:

Oh, wie interessant!

Das erhält man, wenn man die Eingänge des Addierers nicht auf die nachlaufenden Maischen, sondern auf sich selbst kippt :-), d.h. auf die erste Ableitung des idealen MA.

Und warum fragt niemand nach den Einzelheiten? :) Ist das für alle klar?

Es gibt keine perfekten Mash-ups in der aktuellen Bar. Es könnten wirklich ihre Vorhersagen sein. Sprechen wir über sie?

 
Neutron:

nach Vinin

Schreiben Sie mir Ihre Meinung - es wird eine Fortsetzung geben!


Leider bin ich schon seit langem ein Leser. Deshalb kann ich Ihnen auch nichts anbieten. Aber das Thema ist wirklich interessant. Ich bitte um Verzeihung.

 
lna01:
Neutron:

Oh, wie interessant!

Das erhält man, wenn man die Eingänge des Addierers nicht auf die verzögerten Maischen, sondern auf sich selbst kippt :-), d.h. auf die erste Ableitung des idealen MA.

Und warum fragt niemand nach den Einzelheiten? :) Ist das für alle klar?

Es gibt keine idealen Ma's auf der aktuellen Bar. Es kann in der Tat ihre Vorhersagen geben. Sprechen wir über sie?

Nein, ich spreche von der Prognose für die Breite des Glättungsfensters für die perfekte Welle. Ich möchte Sie daran erinnern, dass es am rechten Rand des BP wirklich wackelt, mit einer typischen Glättungszone, die nur so breit ist wie dieses Fenster.


Ich habe einen Fehler im Code gefunden - ich habe eine Zeile übersehen, ohne den Index zu korrigieren, so dass die Vorhersage mit Gewichten erstellt wurde, die für das rückwärtige Fenster gezählt und mit dem aktuellen Wert des idealen Ma multipliziert wurden. Hier ist das korrigierte Ergebnis (siehe Abb.). Die Gewichte werden mit dem МАWA (d.h. seiner Ableitung) ein Fenster früher multipliziert.


Dies ist eine Prognose für 5 Takte im Voraus. Wie zu erwarten, ist die Vorhersagekurve bereits zu Beginn erfolgreich abgebröckelt. Eine Erhöhung der Anzahl der Gleichungen über 2 (ich habe bis zu hundert überprüft) führt zu keiner signifikanten Verbesserung.


P.S. Ich bin erleichtert!


nach Vinin

Ich bin leider schon vor langer Zeit zum Leser geworden. Deshalb kann ich Ihnen auch nichts anbieten. Und das Thema ist wirklich interessant. Ich bitte um Verzeihung.

Nun, wie lädt man Neuronen für diesen Fall. Ist das nicht schwach?

Plötzlich wird die a priori Nichtlinearität des NS, die in mindestens zwei versteckten Schichten entsteht, ein Wunder bewirken...

 
Neutron:

an Vinin.

Leider bin ich schon seit langem ein Leser. Deshalb kann ich Ihnen auch nichts anbieten. Aber das Thema ist wirklich interessant. Entschuldigen Sie bitte.

Nun, wie lädt man Neuronen für diesen Fall. Ist das nicht schwach?

Was wäre, wenn die a priori Nichtlinearität des NS, die in mindestens zwei verborgenen Schichten entsteht, ein Wunder bewirken könnte?

Es ist natürlich möglich, ein Neuron herzustellen. Aber es ist nicht nur eine Frage der Neuronalität. Es ist notwendig, die Eingaben zu definieren, und ich sehe sie noch nicht.

 

An den Einträgen gibt es nichts auszusetzen. Die Hauptsache ist, das Konfidenzintervall für den Handel zu bestimmen.

Manchmal handelt das System sechs Monate lang und verliert dann abrupt Geld, manchmal aber auch früher....

 
Neutron:

Ich habe einen Fehler im Code gefunden - ich habe eine Zeile übersehen, ohne den Index zu korrigieren, so dass die Prognose auf den vor einem Fenster berechneten Gewichten, multipliziert mit dem aktuellen Wert des idealen MA, basierte. Hier ist das korrigierte Ergebnis (siehe Abb.). Die Gewichte werden mit dem МАWA (d.h. seiner Ableitung) ein Fenster früher multipliziert.


Dies ist eine Prognose für 5 Takte im Voraus. Wie zu erwarten, ist die Vorhersagekurve bereits zu Beginn erfolgreich abgebröckelt. Eine Erhöhung der Anzahl der Gleichungen über 2 (ich habe bis zu hundert überprüft) führt zu keiner signifikanten Verbesserung.


Seryoga, das ist eine sehr schlechte Vorhersage, Autocorr-i-Methoden machen eine etwas bessere Vorhersage. Sie werden große Fehler machen, wenn Sie zu BP gehen

 
grasn:

Seryoga, das ist eine sehr schlechte Vorhersage, Autocorr-i-Methoden machen eine etwas bessere Vorhersage. Sie werden große Fehler haben, wenn Sie zu BP gehen

Wenn Sie sich auf lineare autoregressive Modelle der Form beziehen:

dann bin ich anderer Meinung. Der Punkt ist, dass ich fast das gleiche Problem löse (vergleiche: x[n+1]=SUM{w[i]*x[n-i]}, wobei i=0...P-1), der einzige Unterschied ist, dass die Gewichte unter dem Summenzeichen adaptiv in der Tiefe P bestimmt werden, während sie in der klassischen Form integral in einem größeren Maßstab bestimmt werden (für statistische Zwecke bei der Berechnung von Korrelationskoeffizienten). Die Tatsache, dass es kein Ergebnis, so dass es nur verstärkt meinen Wunsch zu bewegen, um die Analyse durch nicht-lineare Methoden, insbesondere mit NS.

Was den Fall der perfekten Mach-Extrapolation betrifft (Sie haben ein Diagramm zitiert), so denke ich, dass man den Vorhersagehorizont durch die Erhaltung der Ableitungen n-ter Ordnung aus der LPF erheblich erweitern kann, wobei n größer als 2 sein sollte. In meinem Fall wurde nur die erste Ableitung gespeichert, weshalb die Reihe zu bröckeln begann, als der Horizont über 2-3 Takte hinaus verlängert wurde.

 
Neutron:
grasn:

Seryoga, das ist eine sehr schlechte Vorhersage, Autocorr-i-Methoden machen eine etwas bessere Vorhersage. Sie werden große Fehler haben, wenn Sie zu BP gehen

Wenn Sie sich auf lineare autoregressive Modelle der Form beziehen:

dann bin ich anderer Meinung. Der Punkt ist, dass ich fast das gleiche Problem löse (vergleiche: x[n+1]=SUM{w[i]*x[n-i]}, wobei i=0...P-1), der einzige Unterschied ist, dass die Gewichte unter dem Summenzeichen adaptiv in der Tiefe P bestimmt werden, während sie in der klassischen Form integral in einem größeren Maßstab bestimmt werden (für statistische Zwecke bei der Berechnung von Korrelationskoeffizienten). Die Tatsache, dass es kein Ergebnis, so dass es nur verstärkt meinen Wunsch zu bewegen, um die Analyse durch nicht-lineare Methoden, insbesondere mit NS.

Was den Fall der perfekten Mach-Extrapolation betrifft (Sie haben ein Diagramm zitiert), so denke ich, dass man den Vorhersagehorizont durch die Erhaltung der Ableitungen n-ter Ordnung aus der LPF erheblich erweitern kann, wobei n größer als 2 sein sollte. In meinem Fall bleibt nur die erste Ableitung erhalten, weshalb die Reihe auseinanderfällt, wenn der Horizont höher als 2-3 Takte wird.




Serega, und wo nur der Addierer mit Koeffizienten nicht verwendet wird. Man kann also sagen, dass Sie ein neuronales Netz haben, wenn auch ein kleines. Vergleichen wir Ihr Modell mit meinem, müssen wir nur an die Kriterien denken. Ich verwende predict() in MatCAD, und Sie verwenden Ihr System. Wir haben die gleiche Entwicklungsumgebung, also definieren wir die Datendatei (Kurs, zu testender Prozess - Abschluss, Durchschnitt oder was auch immer ..., Testbereich). Wir testen nur die MA-Vorhersage, die MA selbst wird adaptiv ausgewählt - es ist egal wie, nur das Endergebnis ist wichtig. Wir testen es an jeder Stichprobe, wodurch die statistische Aussagekraft erhöht wird (es scheint genügend Daten zu geben)


Mein Prognosehorizont wird jedoch adaptiv ausgewählt und nimmt Werte innerhalb der zuvor festgelegten Grenzen an. Hier ist ein Beispiel für meine MA-Prognose für vier Lesungen im Voraus:


[keine Fehler].


Sollen wir einen Vergleich anstellen? Und wenn ja, welche Kriterien schlagen Sie vor? Vorzugsweise sollte es sich um eine Zahl handeln, die einer Zählung entspricht, damit ein Vergleich leichter möglich ist.


PS: Legen wir die Zeit für den Test nicht zu starr fest, ich denke, Sie haben auch eine Menge anderer Dinge zu tun.

PS2: Für den Test können Sie Dateien per Mail austauschen, oder Sie können sich auf Ihr Wort verlassen :o)

 

Gut!

Habe ich es richtig verstanden, dass wir beide eine Datei relativ zur glatten Kurve (MA) ausdrucken und eine Prognose für N Ablesungen im Voraus erstellen? Wenn dies der Fall ist, können wir das Ergebnis folgendermaßen auswerten: Sammeln Sie eine Statistik der Vorhersagen (1000 Ergebnisse) für beispielsweise 10 Lesungen im Voraus und erstellen Sie ein Vorhersagefeld in kartesischen Koordinaten, indem Sie den wahren MA-Wert auf die Abszissenachse und die Vorhersage auf die Ordinatenachse setzen.


Auf der erhaltenen Wolke durch die Methode der kleinsten Quadrate zeichnen wir eine gerade Linie und die Methode mit der Tangente der Steigung dieser Linie wird näher an 1 - steiler!


P.S. Und was das kleine Neuron angeht, hast du wie immer ins Schwarze getroffen :-)