Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
IMHO lohnt es sich nicht, mit Netzen herumzudampfen :)
Beim NS-Lernen geht es um die Optimierung einer Funktion mit einer großen Anzahl von Parametern (Hunderte und Tausende).
Ich weiß nicht, was ich in diesem Fall tun kann, um Übertraining zu vermeiden,
Die einzige Lösung besteht darin, eine Trainingsstichprobe von 1-100 Millionen Proben zu nehmen.
Aber es gibt keine Garantie...
Frage an die Mathematiker:
Ist die Idee, eine multivariate Normalverteilung der zu optimierenden Parameter anzuwenden, mit dem Prinzip der neuronalen Netze gleichzusetzen?
Bitte erklären Sie es klar und deutlich.
Erläutern Sie die Frage.
EXPLAIN:
Ich bin nun der Meinung, dass man nicht mit bestimmten angepassten Parametern handeln sollte, sondern mit dem Spektrum der einzelnen Parameter im System.
Am einfachsten ist es, mehrere identische EAs mit unterschiedlichen Parametersätzen in verschiedenen Bereichen des Parameterspektrums einzusetzen.
Jedem dieser Expert Advisors sollte ein bestimmter Prozentsatz der Einlage zugewiesen werden, aber alle sollten dem prozentualen Wert der Einlage entsprechen, wenn nur mit einem Expert Advisor (ohne Spektrum) gehandelt wird.
Dann, wenn auf gleitende Durchschnitte drei Expert Advisors öffnen drei Positionen, jeweils am Anfang der Bewegung in der Mitte und am Ende.
Ich kann mich noch nicht entscheiden, wie ich diese Idee in einem EA zum Testen verwenden soll.
Ich habe Posh zu diesem Problem befragt, aber noch keine Antwort erhalten.
Die Aufgabe der multivariaten Normalverteilung (Gauß) und der neuronalen Netze vom Typ aX+bY+...=Z sind die gleichen (für den Handel), oder bin ich verwirrt und in meinem Kopf verwirrt?
Frage an die Mathematiker:
Ist die Idee, eine multivariate Normalverteilung der zu optimierenden Parameter anzuwenden, mit dem Prinzip der neuronalen Netze gleichzusetzen?
Bitte erklären Sie es klar und deutlich.
Erläutern Sie die Frage.
EXPLAIN:
Ich bin nun der Meinung, dass man nicht mit bestimmten angepassten Parametern handeln sollte, sondern mit dem Spektrum der einzelnen Parameter im System.
Am einfachsten ist es, mehrere identische EAs mit unterschiedlichen Parametern in verschiedenen Bereichen des Parameterspektrums zu platzieren.
Jedem dieser Expert Advisors sollte ein bestimmter Prozentsatz der Einlage zugewiesen werden, aber alle sollten dem prozentualen Wert der Einlage entsprechen, wenn nur mit einem Expert Advisor (ohne Spektrum) gehandelt wird.
Dann, wenn auf gleitende Durchschnitte drei Expert Advisors öffnen drei Positionen, jeweils am Anfang der Bewegung in der Mitte und am Ende.
Ich kann mich noch nicht entscheiden, wie ich diese Idee in einem EA zum Testen verwenden soll.
Ich habe Posh zu diesem Problem befragt, aber noch immer keine Antwort erhalten.
Das Problem der multivariaten Normalverteilung (Gauß) und der neuronalen Netze vom Typ aX+bY+...=Z sind dasselbe (für den Handel), oder bin ich verwirrt und durcheinander in meinem Kopf?
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5_%D1%81%D0%B5%D1%82%D0%B8 - es steht im Wiki und ist in groben Zügen beschrieben.
http://users.kpi.kharkov.ua/mahotilo/Docs/Diss/diss_ch1_intr.html - es gibt ein Papier über ANN, und in der Mitte des Papiers gibt es eine Diskussion darüber, woher es kommt und worum es geht, mit Diagrammen und Formeln.
http://www.robo-planet.ru/library.php?parent_id=324&PHPSESSID=82aafc8cb3c043ecbe043fa11dd50943 - dies ist ein Link zu "Fundamentals of Artificial Neural Networks" (Grundlagen künstlicher neuronaler Netze), eine gute Seite, auf der es einen ganzen "Baum" zum Thema ANNs gibt - nicht nur das, was ich geschrieben habe.
Aber was die "Spektren" betrifft, so liegen Sie falsch.
Ich bin natürlich kein Professor - aber es gibt einen vernünftigen Grund dafür.
Leute, niemand hat mir geantwortet, ist es notwendig, den Algorithmus des Vergessens zu durchdenken, oder ist es doch eine natürliche Eigenschaft des ANN?
Wenn Sie das Training auf eine begrenzte Anzahl von Takten (oder nicht Takten, was auch immer verwendet wird) beschränken, wird das Vergessen ein natürlicher Prozess sein. Der Markt verändert sich, und was vor fünf Jahren funktioniert hat, funktioniert heute vielleicht nicht mehr. Aber es sind bereits neue Bedingungen entstanden, und wenn man sie nicht lehrt, werden sie vorbeigehen.
Die Entscheidung liegt bei jedem selbst.
Mak, du übertreibst eindeutig etwas. Anstatt sie, wie Sie sagen, um das Hundert- oder Tausendfache zu überschreiten, reichen nach der ANN-Theorie 10 aus. Und die Kriterien für die Umschulung (Anpassung) sind bekannt: es ist ein globaler minimaler Fehler im Testbereich.
Ein weiterer Punkt ist die Netzarchitektur. Besser klassifizierende Maschen als interpolierende Maschen.
Nun ja, in der Statistik geht man davon aus, dass man einige Schlussfolgerungen ziehen kann, wenn die Anzahl der Stichproben das Zehnfache der Anzahl der unbekannten Parameter beträgt. Aber die Fehler, die man dabei macht, bewegen sich am Rande des Zumutbaren.
Aber Sie sollten zustimmen, dass NS im Wesentlichen nur eine Funktion einer Art Vektor von Eingaben und einer Reihe von Gewichten ist.
Dieser Satz von Gewichten enthält Hunderte (in den einfachsten Fällen) bis Zehn- und Hunderttausende von Parametern (Gewichten).
Das Lernen von NS ist nichts anderes als die Optimierung dieser Funktion durch diese Hunderte - Hunderttausende von Parametern.
Jeder weiß, was in solchen Fällen passiert.
Deshalb bin ich ein Skeptiker ...
IMHO lohnt es sich nicht, mit Netzen zu dampfen :)
Beim NS-Lernen geht es um die Optimierung einer Funktion mit einer großen Anzahl von Parametern (Hunderte und Tausende).
Ich weiß nicht, was ich in diesem Fall tun kann, um Übertraining zu vermeiden,
Die einzige Lösung besteht darin, eine Trainingsstichprobe von 1-100 Millionen Proben zu nehmen.
Aber es gibt keine Garantie...
Sie tritt auf, wenn es viele Optimierungsparameter und wenig Daten gibt.
IMHO lohnt es sich nicht, mit Netzen herumzudampfen :)
Beim NS-Lernen geht es um die Optimierung einer Funktion mit einer großen Anzahl von Parametern (Hunderte und Tausende).
Ich weiß nicht, was ich in diesem Fall tun kann, um Übertraining zu vermeiden,
Die einzige Lösung besteht darin, eine Trainingsstichprobe von 1-100 Millionen Proben zu nehmen.
Aber es gibt keine Garantie...
Sie tritt auf, wenn es viele Optimierungsparameter und wenig Daten gibt.
Dies wirft jedoch die Frage nach der Größe des Netzes auf. Was ein Netz speichern kann, hängt von seiner Größe und Architektur ab. Wenn Sie zu viele Proben trainieren, die sich das Netz nicht merken kann, kommt es zum Überlern-Effekt - das Netz erkennt nicht mehr, was es weiß.