Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2019

 
Aleksey Vyazmikin:

Sie können eine Nachricht auch persönlich entgegennehmen.

Tja, da haben wir's, Situationsparadoxon, ich komme nicht in den Briefkasten), die Website hat eine Störung. Wenn es funktioniert, werde ich Ihnen und Maxim schreiben.

 
Maxim Dmitrievsky:

nicht kompliziert, man muss es nur herausfinden.

Sie brauchen überhaupt keinen Strom. Ich kann LSTM auf meinem Laptop in ein paar Minuten lernen, ohne dass ich eine Grafikkarte brauche. Das mit der Macht ist ein Mythos.

)), nun... fragwürdige Aussage.

... Обучение закончено...
 ============ Обучение заняло(миллисекунд): 26832. Эпох: 2693 ===========
 eta: 0.0100, alpha: 0.0050
 max_long_result: 0.9986, max_short_result: 0.9996
 min_long_result: 0.9979, min_short_result: 0.9950
Derselbe Vorgang dauert bei MMS 10 Minuten oder mehr. Die Geschwindigkeit könnte erhöht werden, wenn der Host über mehr Kerne im Prozessor oder die Prozessoren selbst verfügen würden ))).
 
Farkhat Guzairov:

)), nun... umstrittene Behauptung.

Derselbe Vorgang mit MMS dauert 10 Minuten oder mehr. Die Geschwindigkeit könnte erhöht werden, wenn der Host über mehr Kerne in der CPU oder Prozessoren selbst verfügen würde))).

2700 Epochen in 30 Sekunden sind zu schnell

 
dr.mr.mom:

Tja, da haben wir's, Situationsparadoxon, ich komme nicht an meine persönlichen Nachrichten ran) ist die Website fehlerhaft. Ich werde Ihnen und Maksim schreiben, sobald sich die Lage geklärt hat.

Ich habe Ihnen geschrieben, ist die Nachricht angekommen?

 
Maxim Dmitrievsky:

2700 Epochen in 30 Sekunden sind zu schnell.

Die Daten sind nicht genug, das Array ist wie 400 tief, aber wenn Sie es auf tiefe Geschichte zu laden, auch C + + mit Threads wird zu langsam )))), aber das Traurigste ist, dass am Ende kann man nicht ein gut trainiertes System, ich habe einen Schwellenwert von 30000 Epoche, hört es Training, aber Sie wissen, es ist nicht die ausgebildete Scheiße, warum so ... Ich denke, es liegt an Kollisionen, d.h. es scheint mir, dass es einen Datensatz gibt, der in einem Fall sagt, dass das Modell kurz ist, und in einem anderen Fall erscheint dasselbe Modell als ein langes, wenn das so ist, ist es mein Fehler, aber ich habe keine Zeit, mich damit zu beschäftigen ((. Aus diesem Grund habe ich einfach die Menge der Eingabedaten für das Training reduziert.

 
Maxim Dmitrievsky:

Mann... es ist nicht kompliziert in dem Sinne, dass man es verstehen kann

Normalerweise reichen ein paar Schichten aus, man braucht nicht viel Tiefe in Forex

Es ist nur so, dass es architektonisch fortschrittlichere Netze für VR gibt, die kühler sind als lstm. Das könnte sich lohnen, ich habe es noch nicht getestet. Alle "Klassiker" wie Boostings und Perseptrons sind für VR überhaupt nicht geeignet.

Ob mehr Schichten erforderlich sind oder nicht, kann nur anhand der erzielten Ergebnisse beurteilt werden, denke ich...

Welche anderen Netze gibt es noch, können Sie sie nennen - ich kenne mich mit der Vielfalt der Netze überhaupt nicht aus.

Darf ich Ihnen ein Muster für ein modisches Netzwerk schicken?

 
Farkhat Guzairov:

Die Daten sind klein, das Array ist wie 400 tief, aber wenn ich es auf tiefe Geschichte zu laden, auch C + + mit Threads wird in einen Tizzy )))) gehen, aber das Traurigste ist, dass am Ende kann ich nicht ein gut trainiertes System zu bekommen, habe ich 30000 Epoche Meilenstein, hört es Training, aber Sie verstehen, es ist nicht die ausgebildete Scheiße, warum ist es so ... Ich denke, es liegt an Kollisionen, d.h. es scheint mir, dass es einen Datensatz gibt, der in einem Fall sagt, dass das Modell kurz ist, und in einem anderen Fall erscheint dasselbe Modell als ein langes, wenn das so ist, ist es mein Fehler, aber ich habe keine Zeit, mich damit zu beschäftigen ((. Aus diesem Grund habe ich die Menge der Eingabedaten für das Training einfach reduziert.

Warum eine so große Anzahl von Epochen... normalerweise reichen 1000 oder sogar 100 für eine dynamische Schleifenrate.

 
Aleksey Vyazmikin:

Ob noch mehr Schichten erforderlich sind, lässt sich meiner Meinung nach nur anhand der erzielten Ergebnisse beurteilen...

Welche anderen Netze gibt es noch, können Sie sie nennen - ich kenne mich mit Netzvariationen überhaupt nicht aus.

Kann ich Ihnen ein Muster schicken, das Sie in einem ausgefallenen Netzwerk verwenden können?

Ich lerne gerade etwas über neuronale Netze. Das habe ich hier schon geschrieben. Dabei handelt es sich um neue Faltungsprozessoren, Transformatoren usw., die hauptsächlich für die Sprach- und Tonverarbeitung eingesetzt werden.

Die Datensätze für sie werden auf besondere Weise vorbereitet, normale Datensätze funktionieren nicht.
 
Maxim Dmitrievsky:

Ich lerne gerade etwas über neuronale Netze. Das habe ich hier schon geschrieben. Dies sind die neuen Faltungen und Transformatoren usw., die hauptsächlich für die Sprach- und Tonverarbeitung verwendet werden.

Sie haben spezielle Datensätze, normale Datensätze funktionieren nicht.

Wenn man weiß, wie man sich vorbereitet, kann man es schaffen...

 
Maxim Dmitrievsky:

warum eine so große Anzahl von Epochen... normalerweise bis zu 1000 oder sogar 100, mit einer dynamischen Lernrate

Das Ziel ist es, eine maximale Genauigkeit für das Training zu erreichen, d.h. eine Genauigkeit von 1. Da die primären Gewichte zufällig gesetzt werden, können die Epochen manchmal weniger als 1000 betragen.