Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 629
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Maxim, trainieren Sie das Netz nicht mit dem MT-Optimierer. Der NS-Trainer und der Optimierer sind völlig unterschiedliche Algorithmen mit völlig unterschiedlichen Optimalitätskriterien.
Wenn Sie immer noch die NS-Struktur verwenden, die Sie vorher gezeichnet haben, dann ist es ein bisschen einfach - schwach für den Markt. Ich habe bereits geschrieben, dass ich erst erfolgreich war, als ich die Struktur 15-20-15-10-5-1 erreicht hatte. Und dies gilt nur für eine Art von Geschäften. Ich habe auch absolut alles nach den von Haikin beschriebenen Methoden gemacht, also nichts Neues, keine Tricks.
Einfachere Strukturen waren schlecht ausgebildet.
Haben Sie versucht, nicht die Anzahl der Schichten, sondern die Anzahl der Neuronen in einer Schicht zu nehmen? Zum Beispiel 15-200-1 oder 15-200-20-1?
In der Tat sind die für die Ausbildung erforderlichen Daten nicht zahlreich, sondern sehr umfangreich. Bei einer kleinen Stichprobengröße wird NS nichts Brauchbares erhalten.
Und wie viele Daten nehmen Sie? Ich nehme 86000 Saiten für die Ausbildung.
1) Haben Sie versucht, nicht die Anzahl der Schichten, sondern die Anzahl der Neuronen in einer Schicht zu nehmen? Zum Beispiel 15-200-1 oder 15-200-20-1?
2) Und wie viele Daten nehmen Sie? Ich habe 86000 Zeilen für die Ausbildung gebraucht.
1. Ich habe es nicht ausprobiert. 20 in der ersten Schicht sind völlig ausreichend. Wurde durch die Erhöhung sowohl der Neuronen pro Schicht als auch der Schichten.
2. Ich hatte etwa 12000 Zeilen im Training mit zwischenzeitlichem Shuffling zwischen N Epochen. Nach einigen Epochen wurden die Trainingsdaten durch andere Daten ersetzt, die zuvor nicht in das Training einbezogen waren.
Ich entschuldige mich für die Beleidigung, aber Sie sollten Ihren Beitrag noch einmal lesen. Es sieht ziemlich zweideutig aus.
Das ist dasselbe. MLPs sind schon lange nicht mehr relevant, Deep Learning ist seit langem im Trend. Und ein Netz ist durchaus in der Lage, heterogene Daten zu verarbeiten, die Hauptsache ist die Architektur.Und im Allgemeinen haben Sie Recht, aber nur was die erste Schicht des neuronalen Netzes betrifft. Wenn die Rückkopplung in die zweite und die folgenden Schichten oder allgemein in parallele Netzschichten geht, wird Ihre Aussage ungültig.
In diesem Fall sollte Maxim darüber nachdenken, das Netz zu vertiefen und den verborgenen Schichten Feedback zu geben.
Und was ist damit?
Ich stimme zu, aber wie man die Tiefe mit all den Tricks, die aufkam zu kombinieren :) in der Optimierer wird ein bisschen lang zu lernen ... aber sehr, sehr hohe Qualität, weil es und der Handel geschieht auf einmal
Ich denke, dass mehr als 30 Gewichte für den Optimierer nicht in Frage kommen.
+ Viele Leute vergessen, dass es eine Cloud gibt, die im Allgemeinen cool ist, um mit all diesen Dingen zu arbeiten, aber man muss sehr gut darin sein, den Code zu optimieren.
Ich stimme zu, aber wie man die Tiefe mit all den Tricks, die aufkam zu kombinieren :) in der Optimierer wird ein bisschen lang zu lernen ... aber sehr, sehr hohe Qualität, weil es und der Handel geschieht auf einmal
Ich denke, mehr als 30 Gewichte sind für den Optimierer nicht möglich.
+ Ich glaube, viele Leute vergessen, dass es eine Cloud gibt, mit der all diese Dinge Spaß machen, aber man muss den Code sehr gut optimieren.
Versuchen Sie, die Eingabeebene zu duplizieren.
Das ist dasselbe. MLPs sind nicht mehr relevant, Deep Learning ist schon seit langem im Trend. Und ein Netz ist durchaus in der Lage, heterogene Daten zu verarbeiten, es kommt nur auf die Architektur an.Versuchen Sie, die Eingabeschicht zu duplizieren.
Wenn MLPs ein Problem lösen können, welchen Unterschied macht es dann, ob sie relevant sind oder nicht? Gerade bei MLPs muss man sich nicht anstrengen - es gibt praktisch überall alles für sie.
Ich versuche nicht, Sie zu etwas zu zwingen. Die eingehende Untersuchung beginnt mit MLPs.
Außerdem gibt es alles und überall für Deep Learning. =)Aber wenn es um die Darstellung von Daten in einem Netz, ihre Bewegung und Transformation geht, stellen sich natürlich Fragen nach Aktivierung, rekurrenten Schichten, Regularisierung, Kombination von Schichten usw. Das nenne ich tiefes Lernen.
Wenn MLPs ein Problem lösen können, welchen Unterschied macht es dann, ob sie relevant sind oder nicht? Gerade bei MLPs muss man sich nicht anstrengen - es gibt praktisch überall alles für sie.
Nun, ich neige Ihnen zu nichts. Deep Learning beginnt bereits mit MLPs.
Wenn es jedoch um die Darstellung von Daten im Netz, ihre Bewegung und Transformation geht, stellen sich natürlich Fragen zu Aktivierung, rekurrenten Schichten, Regularisierung, Schichtkombination usw. Das ist tiefes Lernen.
Ich verstehe das, aber ich spreche von etwas anderem. Für das Zwei-Rohr-Problem braucht man keine höhere Mathematik, sondern nur Arithmetik. Ob Arithmetik relevant ist oder nicht, ist eine andere Frage.
Das heißt, Sie müssen zuerst das Problem definieren und dann die Lösungsmethoden wählen.
Was die großen und komplizierten Aufgaben von DM - DL, MLP betrifft, so ist das Stadium sicherlich längst vorbei.
Es ist nur so, dass der Tiefgründige noch viel schneller lernen kann, wenn alle anderen Dinge gleich sind... nicht 10 Stunden, sondern 5 Minuten, zum Beispiel :)