Berater für einen Artikel. Tests für alle Teilnehmer. - Seite 8

 
Avals:


Bei einer korrekten Analyse von Ganzheiten ist ein Vorwärts überhaupt nicht nötig.

Das Wesen von Forward besteht darin, zu beurteilen, ob die Extremwerte der optimierten Parameter im Laufe der Zeit schwanken. D.h. die Fälle abschneiden, in denen es mehrere lokale Extrema im gesamten Testgebiet gibt (Optimierung + Autostichprobe). Sie kann durch eine separate Analyse der Singularität und Monotonie der Extremwerte für jede Option viel besser abgeschnitten werden. D.h. es ist bereits eine Garantie, dass eine Option nicht in der Zeit "schwimmt". Und forward hat einen schwerwiegenden Nachteil - es betrachtet nur einzelne Punkte auf der Optimierungsfläche und nicht in der Gesamtheit. Dies und die phonetische Aufteilung der Flächen in Optimierungs- und Autostichproben verringert die statistische Zuverlässigkeit einer solchen Analyse unterhalb des Sockels). Es ist nur eine Erkenntnis - vielleicht hat man das Glück, eine Autostichprobe auszuwählen, und ein beschissener Satz von Optionen wird weitergegeben, oder umgekehrt - eine Autostichprobe fällt in eine Periode des vorübergehenden Rückgangs eines "guten" Satzes von Optionen.

In jedem Fall aber wiederhole ich, dass die Aufgabe der Optimierung darin besteht, die Robustheit der einzelnen Parameter des Systems zu bewerten. Im Zweifelsfall ist es besser, sie zu verwerfen oder zu ändern. Lassen Sie nur das zu, was zu 100 % durch Statistiken und Handelslogik unterstützt wird.


Sie wollen also sagen, dass es besser ist, die Parameter über einen möglichst großen Zeitraum zu optimieren, anstatt eine Reihe von Vorwärtstests durchzuführen? Im Prinzip ist daran auch etwas Wahres dran, denn es ist schwieriger, die Parameter an eine größere Fläche anzupassen", um eine schöne Kurve zu erhalten. :)
 
Avals:


nicht versehentlich etwas verzerren. Dies wird vom GA selbst durch den Mutationsmechanismus erreicht. Eine Optimierung ist erforderlich, um jede einzelne Option auf ihre Robustheit zu prüfen, nicht um globale Extrema zu finden.

Das ist der Punkt, GA sucht nicht nur nach globalen Extrema, sondern nach einem Extremum, das andere Extrema in Bezug auf den Wert der multivariaten Funktion übertrifft, d.h.

max(y = f(x0, x1, ... xn))

wo:

x0, x1 ... xn - Eingangsparameter des TS

y ist eine Fitnessfunktion des GA

Und es gibt keine Garantie dafür, dass das GA-Extremum an einem Punkt des mehrdimensionalen Raums mit Korrdinaten {x0, x1, ... xn} ist nicht zeitlich gleitend und nur für einen Teil der historischen Daten ein Zeitextremum. Wäre die Optimierung in der Lage, eine Robustheitsprüfung durchzuführen, gäbe es die Anpassung überhaupt nicht. Und da die Passung vorhanden ist, sind zusätzliche Prüfungen erforderlich, einschließlich Vorwärtsprüfungen.

Avals:

Aber in jedem Fall besteht die Aufgabe der Optimierung darin, die Robustheit der einzelnen Parameter innerhalb des Systems zu bewerten.

Schwachsinn und Sabotage. Bei der Optimierung geht es per definitionem darum, Extreme zu finden, und es werden keine anderen Probleme gelöst.
 
tol64:

Sie wollen also sagen, dass es besser ist, die Parameter in einem möglichst großen Zeitintervall zu optimieren, anstatt eine Reihe von Vorwärtstests durchzuführen? Im Prinzip ist auch hier etwas Wahres dran, denn es ist schwieriger, die Parameter auf ein größeres Intervall "anzupassen", um eine schöne Kurve zu erhalten. :)

Wären die Zitate stationär, würden wir statistisch korrektere Ergebnisse erhalten, da das Gesetz der großen Zahlen auf stationäre Daten angewandt wird.

Und da wir es mit nicht-stationären Daten zu tun haben, funktionieren Statistiken und das Gesetz der großen Zahlen hier nicht. Denn das Tschebyscheffsche Gesetz der großen Zahlen besagt, dass sich statistische Daten mit zunehmender Anzahl von Versuchen und dem Vorhandensein von Erwartung = Konst und endlicher Varianz ihren konstanten Werten annähern. Nicht-Stationarität schließt Erwartungskonstanz und endliche Streuung aus, und deshalb können wir nichts verfeinern, denn was nicht existiert und nicht existieren kann, ist per Definition nicht sinnvoll zu berechnen und zu verfeinern.

Es ist schwer, eine schwarze Katze in einem dunklen Raum zu suchen, besonders wenn sie nicht da ist (vgl. Konfuzius)

 
Reshetov:


Schwachsinn und Zischlaute. Bei der Optimierung geht es per definitionem darum, Extrema zu finden, und es werden keine anderen Probleme gelöst.
Der Optimierer kann immer noch eine Menge tun, wenn man ihn richtig einsetzt. Nur Nerds reiben sich daran auf, indem sie eine Reihe von Parametern optimieren, um eine einzige obere Zeile zu verwenden ;)
 
IgorM:
Hv. Juri, was ist mit dem Artikel? Wann wird er veröffentlicht?

Ich habe gerade den Text des Artikels zur Überprüfung geschickt.

Nach der Überprüfung wird sie unter folgender Adresse verfügbar sein: https://www.mql5.com/ru/articles/366

 
Reshetov:

Ich habe gerade den Text des Artikels zur Überprüfung geschickt.

Nach der Überprüfung wird sie unter folgender Adresse verfügbar sein: https://www.mql5.com/ru/articles/366

Ich danke Ihnen!

ZS: Ich kann schon die ersten Zeilen des Artikels sehen: "404 Requested page not found", raubt mir den Atem .... )))))

ZZY: Ich hoffe, dass Ihr Artikel wird sagen, wie man die optimale Netzstruktur zu wählen, und wenn das Netzwerk als ausreichend trainiert, hier bin ich verwöhnen Lernen 2x2 ...

>
 
IgorM:

Ich danke Ihnen!

ZS: Ich kann schon die ersten Zeilen des Artikels sehen: "404 Requested page not found" raubt mir den Atem .... )))))

ZZY: Ich hoffe, dass Ihr Artikel wird sagen, wie man die optimale Netzstruktur zu wählen, und wenn das Netzwerk als ausreichend trainiert, hier bin ich verwöhnen Lernen 2x2 ...

Ja, aber es ist nicht wirklich ein Netzwerk, denn die erste Schicht ist ein Expertensystem für drei Eingaben, keine Neuronen, die versteckte Schicht ist ein Perceptron, also bereits ein Neuron, und die Ausgabe ist ein lineares Sigmoid. Notwendigkeit und Hinlänglichkeit der Regelauswahl für die Wissensbasis des Expertensystems werden ausführlich beschrieben. D.h. es gibt keinen Grund, irgendetwas zu optimieren. Das Expertensystem muss alle im Artikel beschriebenen Bedingungen vollständig erfüllen, und keine andere Architektur ist dafür geeignet - nichts kann entfernt werden, da es nicht ausreichend trainiert ist, und nichts kann hinzugefügt werden, da es mit Sicherheit neu trainiert werden muss.

Es gibt detaillierte Anleitungen zur Optimierung eines EA mit Vorwärtstests und zur Durchführung einer zusätzlichen Stabilitätsprüfung des ermittelten Extremums. Es kann nicht gesagt werden, dass all dies mehr als genug ist, um TS als 100% trainiert unter nicht-stationären Bedingungen zu betrachten, aber es kann gesagt werden, dass all dies getan werden sollte, um zu vermeiden, dass man in die Instabilität oder Zufälligkeit eines Vorwärtstests gerät.

 
Reshetov:

Ja, aber es ist nicht wirklich ein Netzwerk, da die erste Schicht ein Expertensystem für drei Eingaben und keine Neuronen ist, die versteckte Schicht ist ein Perzeptron, also bereits ein Neuron, und die Ausgabe ist ein lineares Sigmoid. Die Notwendigkeit und Hinlänglichkeit der Regelauswahl für die Wissensbasis des Expertensystems wird ausführlich beschrieben.

Interessant..., ich denke darüber nach, ein System aus einem Array von NSs zu machen - der Input von NSs sollte mit Outputs von bereits trainierten NSs gefüttert werden
 

DieVeröffentlichung des Artikels hat sich vorübergehend verzögert. Der Text wurde bearbeitet, aber die Screenshots haben aufgrund meiner Unaufmerksamkeit die zulässige Größe überschritten. Ich werde die Optimierung noch einmal durchführen müssen, um Screenshots zu machen. Und die Optimierung in MT5 ist furchtbar langsam. Daher wurde die Veröffentlichung vorerst auf unbestimmte Zeit verschoben.

 
Reshetov:


Die Veröffentlichung des Artikels hat sich vorübergehend verzögert. Der Text wurde bearbeitet, aber die Screenshots haben aufgrund meiner Unaufmerksamkeit die zulässige Größe überschritten. Ich werde die Optimierung noch einmal durchführen müssen, um Screenshots zu machen. Und die Optimierung in MT5 ist furchtbar langsam. Daher wurde die Veröffentlichung vorerst verschoben.


Können die Screenshots in Photoshop ohne Qualitätsverlust verkleinert werden?

P.S. Obwohl, wenn es Elemente des Terminals gibt, wird es nicht sehr gut funktionieren.