Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2278

 
mytarmailS:

Soweit ich mich erinnere, hat TC eine Zeit lang gearbeitet und ist gestorben...

Filtration im üblichen Sinne (Assistenten, Filter usw.) ist immer eine Verzögerung, eine Verzögerung auf dem Markt ist ein Abfluss....

Sie sollten ein anderes Paradigma aufbauen (ohne Verzögerungen), Ebenen zum Beispiel...

Was hat eine Verzögerung damit zu tun? Es ist die gleiche Überarbeitung, was macht das für einen Unterschied?

Sie müssen zuerst nach einem Muster suchen

 
mytarmailS:

Worauf warten Sie noch?

Ich habe diese Ideen, einen Wagen und einen Waggon, in der Warteschlange.

Die Datei enthält ein Beispiel für 2 Mikrofone, und es gibt eine weitere Idee, mehrere Währungen für den gleichen Zweck zu verwenden.

Ich muss mich auch mit der blinden Anpassung befassen.



Visualisierung der Verlustfunktion

 
Maxim Dmitrievsky:

Was hat eine Verzögerung damit zu tun? Es ist die gleiche Überarbeitung, was macht es für einen Unterschied, wie man sie unterrichtet?

Sie müssen nach einem Muster von furst suchen.

Was ist Überfütterung in einem Kardanring? Lesen Sie überhaupt, was ich sage?

 
elibrarius:

Gibt es in dem Algorithmus etwas zum Komprimieren und Dekomprimieren der Graphen?

Was die Interpolation betrifft, so sehe ich mehrere. Welches ist für uns am besten geeignet? Und wer ist schneller?

Wir haben die Idee aufgegeben...

Wir haben etwas gefunden, um die Graphen zu komprimieren und zu dekomprimieren. Was kommt als Nächstes? Wie verwenden wir sie?

1) Erkennen Sie ein Dutzend komprimierte und unkomprimierte aktuelle Situationen? Was dann? Zu durchschnittlich? Schließlich sind vielleicht 50 % für den Kauf und 50 % für den Verkauf.

2) Gibt es eine Möglichkeit, dies in der Ausbildung zu nutzen? Die Größe des Arrays für das Training verringern?

 
elibrarius:

Die Idee wurde aufgegeben...

es hat bei mir nicht funktioniert...

erweitert und x10 Mal eingegrenzt.

Müll


Es gibt einen anderen Weg... nicht gegen die Invarianz ankämpfen, sondern die Dimensionalität verkleinern

oder ignorieren Sie es einfach)

 
mytarmailS:

Lesen Sie überhaupt, was ich schreibe?

benutze dein Gehirn )

der Ansatz Ihres neuronalen Netzes, Zeiträume zu durchlaufen, ist eine einfache Überanpassung
 
mytarmailS:

Bei mir hat es nicht funktioniert...

erweitert - verengt auf das 10-fache

Müll


Es gibt einen anderen Weg... nicht gegen die Invarianz ankämpfen, sondern die Dimensionalität verkleinern

oder überspringen Sie es)

10 Mal ist zu viel.

Ich denke, Sie brauchen nicht mehr als 50 %. Versuchen Sie es zum Beispiel mit 1,1, 1,3, 1,5 mal.


Wenn Sie einen fertigen Code haben und nur den Multiplikator ändern müssen, überprüfen Sie diese Optionen

 
mytarmailS:

Bei mir hat es nicht funktioniert...

erweitert - verengt auf das 10-fache

Müll


Es gibt einen anderen Weg... nicht gegen die Invarianz ankämpfen, sondern die Dimensionalität verkleinern

oder ignorieren Sie es einfach)

Haben Sie Punkt 1 ausprobiert? D.h. haben Sie bei der Vorhersage mehrere Varianten der skalierten Ist-Situation in das Modell eingespeist?
 
Maxim Dmitrievsky:

schalten Sie Ihr Gehirn ein.)

der Ansatz Ihres neuronalen Netzes, MA-Perioden zu überschreiben, ist ein einfacher Overfit

Ich habe es nicht ausgeschaltet...

Das Netz steuert die Dauer des Winkens, die Zeitspanne reicht von 2 bis 500, glaube ich...

ein Zeitraum von2 bis 500 entspricht einer Verzögerungvon 2 bis 500

Ob das Netz überangepasst ist oder nicht, ist nicht der Punkt... Der Punkt ist, dass sie den Zeitraum und den Zeitraum == Verzögerung kontrolliert.

elibrarius:
Haben Sie Schritt 1 versucht? Haben Sie z.B. bei der Vorhersage mehrere skalierte Varianten der aktuellen Situation in das Modell eingespeist?

ja

 

Ich interessiere mich sehr für diesen SPADE-Algorithmus, aber ich weiß noch nicht, wie ich ihn angehen soll, er schwirrt mir schon seit einem halben Jahr im Kopf herum...

Es ist nicht sehr offensichtlich, wie man Daten dafür vorverarbeitet, dasselbe gilt für das Ziel + es ist extrem ressourcenhungrig, es ist definitiv kein "Big-Data"-Algorithmus...

Aber es scheint mir, dass dies der beste Algorithmus für den Data-Mining-Markt ist.