Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 395

 
Dr. Trader:


Damals fing ich noch an, R zu lernen, und das Skript wurde fast vollständig in Rattle (einer visuellen Umgebung für die Datenanalyse in R) erstellt, daher ist es so komplex und für alle Fälle angepasst.


Diese

sollte geändert werden in...

Das sollte kein Problem sein.


Generell ist das ein schlechter Ansatz, man sollte die Bedeutung von Inputs nicht auf diese Weise definieren. Aus irgendeinem Grund hat es damals funktioniert, aber es hat mir nie wieder geholfen.

Ich habe weiter experimentiert...

Wenn man 1 - 2 Neuronen in eine versteckte Schicht setzt, sind die wichtigen Eingaben mehrfach unterschiedlich:

152,33, 7,82, 132,57, 12,19, 132,86, 10,54, 135,56, 19,16, 137,32, 14,84, 127,36, 7,43, 11,35, 6,66, 13,6, 10,18, 10,74, 10,66, 11,18, 8,95 (1 Neuron)

Wenn Sie 10 einstellen (wie in Ihrem zweiten Experiment), werden die Gewichte auf den Neuronen verschmiert und Sie können die wichtigen Neuronen nicht von den verrauschten unterscheiden:

113963.27, 91026.57, 100833.22, 134980.44, 154190.05, 146455.03, 198703.01, 135775.2, 184353.78, 160766.79, 152433.73, 105753.11, 151673.83, 135421.64, 165343.94, 70277.93, 175038.87, 150342.56, 59153.02, 121012.76 (10 Neuronen)

Offenbar ist für dieses logische Problem 1 Neuron optimal.

 
Maxim Dmitrievsky:


Und versuchen Sie die Entscheidungsbäume von alglib, sie zählen schneller und haben einen besseren Wert als mlp. Diplerning ist auch schneller, aber nicht in alglib.

Das Wichtigste ist das Verhältnis von Geschwindigkeit und Qualität. Was nützt es, eine Woche oder sogar einen Tag oder eine Stunde zu warten, um die richtige Kombination zu finden, man wird es nie richtig hinbekommen.) Wenn das Modell ein paar Sekunden braucht, um zu lernen, dann kann man Genetik für die Autosimulation von Parametern oder Prädiktoren verwenden, dann ist es reine KI, ansonsten ist es Unsinn)

Wenn die 1. Spalte entfernt wird, sind es nicht 5%, sondern viel schlechter...

Forest ergibt etwa den gleichen Fehler wie MLP (zählt aber schneller)

Durchschnittlicher Fehler in der Trainingsfläche (60,0%) =0,264 (26,4%) nTrees=100 codResp=1
Durchschnittlicher Fehler bei der Validierung (20,0%) plot =0,828 (82,8%) nTrees=100 codResp=1
Durchschnittlicher Fehler im Test (20,0%) plot =0,818 (81,8%) nTrees=100 codResp=1

 
elibrarius:

Wenn die 1. Spalte entfernt wird, sind es nicht mehr 5%, sondern viel mehr...

Forest ergibt etwa den gleichen Fehler wie MLP (zählt aber schneller)

Durchschnittlicher Fehler in der Trainingsfläche (60,0%) =0,264 (26,4%) nTrees=100 codResp=1
Durchschnittlicher Fehler bei der Validierung (20,0%) plot =0,828 (82,8%) nTrees=100 codResp=1
Durchschnittlicher Fehler beim Test (20,0%) plot =0,818 (81,8%) nTrees=100 codResp=1


Ja, klassisches mlp hat keinen Vorteil gegenüber forest, zumindest für mich gewinnt forest immer in Bezug auf Geschwindigkeit und Qualität

Übrigens, Diplerning ist vielleicht auch kein Vorteil... denn im Studio ist das neuronale Netz ähnlich wie Diplerning - es gibt nicht einmal Schichten, sondern mehrere Faltungsnetze... wie Autoencoder, die sich gegenseitig in Reihe initialisieren (zumindest heißt es so), aber die Ergebnisse sind immer noch schlechter als Forest

 
Mihail Marchukajtes:


Ich weiß nicht, was ich sagen soll. Um nur ein Beispiel aus dem Bericht zu nennen. Die Optimierungsergebnisse sehen so aus, und Sie können sie beliebig interpretieren, aber wenn die Optimierung abgeschlossen ist, sieht das Ergebnis wie folgt aus.

* Empfindlichkeit der Verallgemeinerungsfähigkeit: 55.12820512820513%

* Spezifität der Verallgemeinerungsfähigkeit: 55,5045871559633%.

* Verallgemeinerungsfähigkeit: 55,309734513274336%

* TruePositives: 129

* FalschePositive: 105

* TrueNegatives: 121

* FalschNegative: 97

* Gesamtzahl der Muster in den Stichproben mit Statistik: 452

In Rot habe ich das Gesamtergebnis der Verallgemeinerungsfähigkeit hervorgehoben. Der erste ist der Prozentsatz der erratenen Einsen, der zweite ist der Prozentsatz der erratenen Nullen und der dritte ist die Gesamtsumme.



Reshetovs Klassifikator liefert zumindest bessere Ergebnisse als mlp und trainiert nicht neu, das ist sein Vorteil ... aber es dauert lange, mit deinem Set zu zählen, gestern hatte ich 2 Stunden Zeit und heute habe ich nach dem Winterschlaf wieder weitergemacht ... Ich warte, wenn ich mit dem Zählen fertig bin, damit ich Fehler vergleichen kann :)

Trotzdem möchte ich es auf mql5 umschreiben und hier für eine effizientere Nutzung in OpenCL konvertieren. Dann mieten Sie eine Google-Cloud und berechnen Sie ein neuronales Netz in Minuten (Sekunden?) auf Tesla, oder kaufen Sie den Tesla für 500 000 :) Von 3000 Cuda-Kernen

 
Maxim Dmitrievsky:


Reshetovs Klassifikator liefert zumindest bessere Ergebnisse als mlp und trainiert nicht neu, das ist sein Vorteil... aber es dauert so lange, mit deinem Set zu zählen, gestern habe ich 2 Stunden gezählt und heute wieder nach dem Winterschlaf weitergemacht... ich warte darauf, dass er die Zählung beendet, damit ich Fehler vergleichen kann :)

Trotzdem möchte ich es auf mql5 umschreiben und hier für eine effizientere Nutzung in OpenCL konvertieren. Dann mieten Sie eine Google-Cloud und berechnen Sie ein neuronales Netz in Minuten (Sekunden?) auf Tesla, oder kaufen Sie den Tesla für 500 000 :) Für 3000 Cuda-Kerne


Das ist sein großer Vorteil: Es wird nicht neu trainiert, auch wenn das Modell jedes Mal komplizierter wird. Wir erhalten also das komplexeste (große) Modell, das nicht neu trainiert wird. Das Modell wird also intelligenter, etwa wie Tapka. Ich dachte schon an den Intel Xeon Mathe-Coprozessor, aber der kostet 200 k. Es gibt 60 Kerne und 120 logische Kerne. Denken Sie einmal darüber nach, wie Sie in 5 Sekunden ein Modell erstellen können, das, wie Sie sagen, keine große Menge verarbeitet, und ein Modell erhalten, das dem komplexesten nicht-stationären Prozess wie der Währung Kotir entspricht???? Um ein adäquates Modell zu erhalten, ist es notwendig, genügend Zeit mit der Maschine zu verbringen. Dann wird das Modell angemessen sein und länger halten.

Ich würde es trotzdem gerne auf einer GPU laufen lassen. Mindestens die 10-fache Leistung und es wäre gut.... Vielleicht klappt es ja doch?

 
Dr. Trader:

Die Ergebnisse der Wichtigkeitsbewertung lauten wie folgt. Je höher der Prädiktor in der Tabelle, desto besser. NurVVolum6, VDel1, VVolum9 und VQST10 bestanden den Test.

In Rattle können wir 6 Modelle auf einmal auf diesen 4 Prädiktoren aufbauen und SVM zeigt eine Genauigkeit von etwa 55% auf Validierungs- und Testdaten. Nicht schlecht.


Na toll, jetzt zählt der Optimierer, ich weiß nicht einmal, wann er fertig ist, aber ich werde ihm auf jeden Fall diese Eingaben geben und sehen, was er herausgibt, wie wird dieses Modell aussehen..... Ich danke Ihnen!
 
Maxim Dmitrievsky:


Aber es dauert verdammt lange, mit deinem Seth zu zählen, gestern habe ich 2 Stunden gebraucht und heute ging es nach dem Winterschlaf wieder weiter... Ich warte darauf, dass es mit dem Zählen fertig wird, damit ich Fehler vergleichen kann :)

Trotzdem möchte ich es auf mql5 umschreiben und hier für eine effizientere Nutzung in OpenCL konvertieren. Dann mieten Sie eine Google Cloud und berechnen Sie ein Neuronetz in Minuten (Sekunden?) auf Tesla, oder kaufen Sie den Tesla für 500 000 :) Für 3000 Cuda-Kerne


Nochmals: Wie viele Kerne werden für die Berechnungen verwendet? Ich habe 4 Kerne zu 100% ausgelastet und habe mich nicht getraut, einen vollen Satz von 452 Zeilen laufen zu lassen, weil ich das Gefühl habe, dass es eine Woche ist, nicht weniger.....
 
Mihail Marchukajtes:

Nochmals: Wie viele Kerne werden für die Berechnungen verwendet? Ich habe 4 Kerne, die zu 100% ausgelastet sind, und ich habe mich nicht getraut, den vollen Satz von 452 Zeilen auszuführen, weil ich das Gefühl habe, dass es eine Woche ist, nicht weniger.....


Wie auch immer, ich grub die neueste Version des Programms, wo es Parallelen, aber die letzte Version funktioniert anders als die erste, gibt es 2 neuronale Netze im Ausschuss, mlp und Autor, und sie dann interagieren, wenn die Ergebnisse, eine Menge Code, Respekt an den Autor :) Gibt es überhaupt irgendwo eine Beschreibung der neuesten Version, der Theorie?

Es hat etwas sehr Hartes an sich, dass gerade DIES verwendet wird. Es wird viel Zeit in das Studium des Codes investiert werden müssen.

Versuchen Sie, den Autor selbst zu kontaktieren und ihn anzurufen, vielleicht wird er es selbst parallelisieren... denn es gibt eine Geste

Метод МГУА для социально экономического прогнозирования, математического моделирования, статистического анализа данных, аналитической оценки систем и программирования.
  • Григорий Ивахненко
  • gmdh.net
Метод Группового Учета Аргументов применяется в самых различных областях для анализа данных и отыскания знаний, прогнозирования и моделирования систем, оптимизации и распознавания образов. Индуктивные алгоритмы МГУА дают уникальную возможность автоматически находить взаимозависимости в данных, выбрать оптимальную структуру модели или сети, и...
 
Mihail Marchukajtes:


Das ist sein großer Vorteil - es wird nicht neu trainiert und das Modell wird jedes Mal komplizierter. So erhalten wir das komplexeste (große) Modell, das nicht neu trainiert wird. Das Modell stellt sich also als intelligenter heraus, etwa wie Tapka. Ich dachte schon an den Intel Xeon Mathe-Coprozessor, aber der kostet 200 k. Er hat 60 Kerne und 120 logische Kerne. Denken Sie einmal darüber nach, wie Sie in 5 Sekunden ein Modell erstellen können, das, wie Sie sagen, keine große Menge verarbeitet, und ein Modell erhalten, das dem komplexesten nicht-stationären Prozess wie der Währung Kotir entspricht???? Um ein adäquates Modell zu erhalten, ist es notwendig, genügend Zeit mit der Maschine zu verbringen. Dann wird das Modell angemessen sein und länger funktionieren.

Ich würde es trotzdem gerne auf einer GPU laufen lassen. Mindestens die 10-fache Leistung und es wäre gut.... Vielleicht klappt es ja doch noch.

Ist der Klassifikator von Reschetow nicht immer noch ein Netzwerk, aber nur ein Neuron? Oder sind sie in Reshetovs Netzwerk von Neuronen eingebunden?
 
Maxim Dmitrievsky:


Wie auch immer, ich habe die letzte Version des Programms gegraben, wo es Parallelen, aber die letzte Version funktioniert anders als die ersten, gibt es 2 neuronale Netze im Ausschuss, mlp und Autor ein, und sie dann interagieren, wenn die Ergebnisse, eine Menge Code, Respekt an den Autor :) Gibt es überhaupt irgendwo eine Beschreibung der neuesten Version, der Theorie?

Es hat etwas sehr Hartes an sich, dass gerade DIES verwendet wird. Man muss viel Zeit aufwenden, um den Code zu studieren.

Versuchen Sie, den Autor selbst zu kontaktieren und ihn anzurufen, vielleicht wird er es selbst parallelisieren... denn es gibt eine Geste


Ich glaube, ich werde den Autor nicht erreichen, ich habe ihm auf beiden Wegen geschrieben. Er sagt nichts. Aber soweit ich weiß, hat er geschrieben, dass er alles, was darin steht, parallelisiert hat. Ja, es werden in der Tat zwei Grids ausgebildet, die im Ausschuss arbeiten. Das habe ich in meinem Artikel geschrieben. Wenn beide "ja" zeigen, dann ja, wenn nicht, dann nein, wenn beide gemischt sind, dann "weiß nicht". Ich weiß nicht, über die neueste Version, aber die Beschreibung basiert auf Google, den Link, den Sie mir gegeben. einmal lief Version 3 auf dem WWW-Server und zu meiner Enttäuschung der Optimierer lädt nur einen Kern, aber neueren Versionen laden alle Kerne gleichmäßig, so dass ich denke, disparallelling gibt es noch. Es gab nur noch eine Kleinigkeit zu tun. Um die Anzahl der Kerne zu erhöhen :-)