Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 942

 
Olga Shelemey:
Ich danke Ihnen. Er wird sie sicherlich später lesen. Im Moment schläft er und liest etwas von Shelepin. Er sagte, ich solle ihn nicht stören.

GUT.

Er soll Tuckens Theorem finden.

 
Aleksey Vyazmikin:

Ich habe alles nach diesem Prinzip in einer Tabelle zusammengefasst

Ich habe auch eine Gruppierung nach arr_TimeH Prädiktor - vielleicht wird es in dieser Form nützlich sein.

Ich hänge die Dateien an.

Das Programm, das ich verwende, zeigt folgendes Bild: Es gibt nur 30,81 % der Treffer


Wenn wir jedoch z. B. die Fehler -2 und -1 addieren und die richtig gefundenen Lösungen gegen die falschen aufrechnen und die Zielnummer 3 ignorieren, weil sie ein Filter ist und sich nicht auf die finanziellen Ergebnisse auswirkt, dann ergibt sich folgendes Bild

In diesem Fall beträgt der Fehler bei der Eingabe der Position 49,19 %, was nicht so schlimm ist!

 
Maxim Dmitrievsky:

Haben Sie mit der kfold alglib experimentiert? Verbessert sie die Ergebnisse? In einem Ihrer alten Beiträge habe ich gesehen, dass die Probe nicht gemischt wird. Muss das überhaupt sein?

Können Sie anhand derselben Daten feststellen, was weniger übertrainiert - Wald oder mlp? Ich habe den Verdacht, dass der Forest bei Regressionsaufgaben schief arbeitet und Fehler schief (sehr klein) zurückgibt, bei Klassifikationsnormen.

2. Ich habe gesehen, dass es Leute gibt, die sich für OpCl interessieren. Wurde daran gedacht, NS umzuschreiben? Ich habe zum Beispiel GA ganz aufgegeben, weil es ein alptraumhafter Unsinn ist, alles wird jetzt in einem Thread auf einem Kern trainiert. Sie könnten es auf Cl beschleunigen (wenn auch nicht so schnell). Oder, wenn Sie auf Spark trainieren, ist es sowieso parallel und es hat keinen Sinn.

3. mehr oder weniger verstanden haben, was Sie auf den Git setzen und wie Sie es anwenden. Sehr interessante Arbeit, Respekt! :)

Als ich begann, Netzwerke zu recherchieren, war das Ergebnis https://github.com/Roffild/RoffildLibrary/blob/master/Experts/Roffild/Alglib_MultilayerPerceptron.mq5. Ich habe verschiedene Sätze von Prädiktoren in verschiedenen Sequenzen durchlaufen (mit und ohne Shuffling) - dafür ist der Parameter File_Num verantwortlich. Und natürlich habe ich versucht, die gleiche Anzahl von Datensätzen für zwei Klassen zu erstellen.

Das Problem bei diesem Netz ist, dass es kein klares Kriterium für die Auswahl einer gültigen Stichprobe gibt. Wenn Sie zum Beispiel Bilder von Früchten erkennen, können Sie eindeutig zuordnen, wo ein Apfel und wo eine Orange ist. Bei Kurscharts gibt es kein 100%iges Auswahlkriterium und somit auch kein 100%iges Umschulungskriterium.

https://github.com/Roffild/RoffildLibrary/blob/master/Experts/Roffild/Alglib_RandomForest.mq5

Ein Zufallsforst ist weniger abhängig vom Rauschen und liefert mit größerer Wahrscheinlichkeit unter verschiedenen Stichprobenbedingungen das gleiche Ergebnis. Zum Beispiel in der Grafik.

Die blauen und gelben Daten sind fast identisch. Ich hatte allerdings mehr Unterschiede erwartet, da ein Teil der Stichprobe für den zweiten Wald entfernt wurde.

Und meiner Meinung nach versuchen einige Leute, den Eröffnungskurs einer Order mit Hilfe des Netzes oder des Waldes zu ermitteln, aber sie vergessen, dass die Gewinnmitnahme stattfindet, wenn die Order geschlossen wird. Um dieses Problem zu lösen, erschien https://github.com/Roffild/RoffildLibrary/blob/master/Include/Roffild/OrderData.mqh, aber diese Klasse wird genau wie ein "Elternteil" verwendet.

OpenCL wird nur für das Training des Netzes benötigt. Für abschließende Berechnungen, bei denen das Netz oder der Wald bereits trainiert wurde, ist OpenCL nicht zu gebrauchen, da die für die Datenübertragung zur Grafikkarte benötigte Zeit sehr lang ist. Und die Algorithmen zum Abrufen von Daten aus dem Netz oder aus dem Wald sind wirklich sehr einfach, und die CPU verarbeitet sie sehr gut.

Spark parallelisiert im Allgemeinen Berechnungen nicht nur zwischen den Kernen eines einzelnen Computers, sondern kann auch ein ganzes Netzwerk von Computern nutzen. Es handelt sich um einen Standard für das Inter-Server-Computing. Zum Beispiel kaufe ich normalerweise 32 Kerne bei amazon für 0,25 Dollar/Stunde, um schnell einen fertigen Zufallswald zu erhalten.

 
Roffild:

Das Problem bei diesem Netz ist, dass es kein klares Kriterium für die Auswahl einer gültigen Stichprobe gibt. Wenn Sie zum Beispiel Bilder von Obst erkennen, können Sie klar erkennen, wo ein Apfel und wo eine Orange ist. Bei Preisdiagrammen gibt es kein 100%iges Auswahlkriterium und somit auch kein 100%iges Umschulungskriterium.

https://github.com/Roffild/RoffildLibrary/blob/master/Experts/Roffild/Alglib_RandomForest.mq5

Ein Random Forest ist weniger vom Rauschen abhängig und liefert unter verschiedenen Stichprobenbedingungen häufiger das gleiche Ergebnis. Zum Beispiel in der Grafik

Das liegt daran, dass man in NS die Architektur aufgreifen muss, während Wälder immer auf die gleiche Weise funktionieren, ja :)

Und um eine Architektur zu erkennen, sollten Sie einen mehrdimensionalen Merkmalsraum abbilden und herausfinden, welche Schicht wofür zuständig ist, oder einfach auf Ihr Bauchgefühl vertrauen. Richtig aufgenommene NS sollten jedoch theoretisch zu besseren Ergebnissen führen, auch im Hinblick auf die Überausstattung.

noch nicht alle Bibliotheken, danke, ich werde mich weiter damit befassen

 
Alptraum
 
Je weiter im Wald, desto größer das Brennholz...
 

Ein weiteres nützliches Buch auf Russisch.

Джулли А.,Пал С. - Библиотека Keras - инструмент глубокого обучения [2018, PDF, RUS] :: RuTracker.org
  • rutracker.org
Автор : 2018 : Джулли А.,Пал С.: ДМК Пресс : 978-5-97060-573-8 : Русский: PDF : Отсканированные страницы : 298: Книга представляет собой краткое, но обстоятельное введение в современные нейронные сети, искусственный интеллект и технологии глубокого обучения. В ней представлено более 20 работоспособных нейронных сетей, написанных на языке...
 
Vladimir Perervenko:

Ein weiteres nützliches Buch auf Russisch.

Wie finden Sie Keras? Ist es besser als Darch oder ist es dasselbe? Kann es mit den gleichen Daten, der gleichen Anzahl von Epochen usw. schneller lernen?
 
elibrarius:
Wie hat Ihnen Keras gefallen? Ist es besser als Darch oder sind die Möglichkeiten die gleichen? Lässt sich mit denselben Daten, derselben Anzahl von Epochen usw. schneller lernen?

Kein Vergleich. Kegas - grenzenlose Möglichkeiten in Bezug auf Struktur, Schulung und Anpassung, viele Beispiele und ausführliche Dokumentation. Unabhängig davon, über TensorFlow - es entwickelt sich sehr schnell (bereits 1.8). Es ist klar, dass dies seine Vor- und Nachteile hat. Es ist nicht so schnell zu lernen, man muss ein bisschen mehr turnen. Es ist schwierig, die Hyperparameter zu optimieren. Ansonsten ist dies der Hauptschwerpunkt für die Zukunft.

Viel Glück!

 
Aleksey Vyazmikin:

Ich habe mich immer noch nicht mit R angefreundet, deshalb bin ich gespannt, was du dir einfallen lässt!

Erstellt eine Zerlegung des wöchentlichen TF, 1400 Balken (fast die gesamte im Terminal verfügbare Historie)

Die Daten werden hier nicht angezeigt, das ist nicht sehr praktisch. Ich werde es in Plot oder in einen Indikator umschreiben müssen, um es in einem Diagramm zu markieren.

Bei den kleineren Mods sind die tscc stärker ausgeprägt. Und die größte ist +- 14 Jahre (2 Halbperioden von 28 Jahren), die in 4 7-Jahres-Zyklen unterteilt ist (wie ich schon sagte). Außerdem endete der letzte 7-Jahres-Zyklus Anfang dieses Jahres (ungefähr), was darauf hindeutet, dass es nicht viel Sinn macht, das Raster an früheren Daten zu unterrichten

Die Zyklen in der Mitte sind nicht so stark ausgeprägt

Und um uns nicht den Kopf zu zerbrechen, müssen wir einfach alle Mods in den NS bekommen, und außerdem korrelieren sie nicht miteinander.

Dann wird es die verschiedenen Zyklen erkennen, und vielleicht nicht, eine philosophische Frage, wie Sie so sein wird :)