Eine schnelle und kostenlose Bibliothek für MT4, sehr zur Freude der Neuralnetworker - Seite 4
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Z.I. Obwohl mein EA keine so drastisch unterschiedlichen Ergebnisse erzielt hat, könnte dies von vielen Bedingungen abhängen.
Verwendet Ihr EA einen anderen Indikator für die Eingabe?
Die anfänglichen Gewichte können unterschiedlich sein, aber das Endergebnis sollte bei den gleichen Eingabedaten in etwa die gleichen Trainingsergebnisse liefern.
Sonst ist es harter Zufall, kein Training.
Der 2. Optimierungslauf wurde von "0" aus mit denselben Daten und denselben Parametern durchgeführt.
Es gibt nichts zu "lernen", da es sich um ein neues Training handelt, aber es führt zu völlig anderen Ergebnissen.
Beim Training mit einem neuen Gitter werden die Anfangsgewichte mit Zufallszahlen initialisiert. Da die Ausgangsgewichte unterschiedlich sind, wird auch das Training für die Maschen unterschiedlich ausfallen und das Endergebnis wird ebenfalls unterschiedlich ausfallen.
Welchen Sinn hat es, fertig trainierte Raster zu löschen und erneut zu trainieren?
Ich optimiere das Training nur nach verlorenen Trades. In den meisten Fällen bleibt der StopLoss gleich und der Expert Advisor muss nur das Terminal neu laden, um neue Grids zu laden, da das Laden aus Dateien in init() erfolgt. Wenn StopLoss geändert wird, sollte dies in den Einstellungen des Trading Expert Advisors erfolgen.
Die Re-Optimierung kann "on the fly" erfolgen, d.h. wenn die EAs zur gleichen Zeit handeln, stört der Optimierer sie nicht.
Verwendet Ihr EA einen anderen Indikator für den Einstieg?
Der Input ist anders, aber viel wichtiger ist wahrscheinlich die Tatsache, dass die Lernzeit viel länger ist...
Hallo Juri.
Wenn Sie so freundlich wären, zu erklären, warum es zwei verschiedene Optimierungen für Ihren EA gibt,
...x: 1 bis 5000 Schritt 1
...
Die anfänglichen Gewichte können unterschiedlich sein, aber das Endergebnis sollte bei den gleichen Eingabedaten in etwa die gleichen Trainingsergebnisse liefern.
Sonst ist es harter Zufall, kein Training.
Es ist nicht schwer, die Anweisungen des EA sorgfältig zu lesen, was die Werte für x bei der Optimierung sein sollten, und keine dummen Fragen mehr zu stellen.
Wenn du dein eigenes Ding durchziehst, dann:
Gib dem Spiegel nicht die Schuld, wenn du dich irrst (von Kozma Prutkov)
Wenn ein neues Gitter trainiert wird, werden die Anfangsgewichte mit Zufallszahlen initialisiert.
Da die anfänglichen Gewichte unterschiedlich sind, wird auch das Training für die Gitter unterschiedlich sein und das Endergebnis wird ebenfalls unterschiedlich ausfallen.
Welchen Sinn hat es, fertig trainierte Gitter zu löschen und sie erneut zu trainieren?Ich führe die Optimierung - das Grid-Training - nur nach Verlustgeschäften durch. Meistens bleibt der StopLoss gleich und damit der EA neue Grids laden kann, müssen Sie nur das Terminal neu laden, da das Laden aus den Dateien in init() erfolgt. Wenn der StopLoss geändert wird, müssen Sie ihn auch in den Einstellungen des Trading EA ändern.
Die Re-Optimierung kann "on the fly" durchgeführt werden, d.h. wenn der Expert Advisor zu diesem Zeitpunkt handelt, greift der Optimierer nicht in diesen ein.
Das Beispiel zeigt die Anfangsparameter von 2 verschiedenen Strategien, die auf denselben Daten, im selben Zeitraum, mit denselben Trainingsparametern und für denselben Expert Advisor trainiert wurden.
Aus diesem Beispiel folgt, dass, wenn die Anfangsparameter von 2 identisch trainierten Netzen unterschiedlich sind, ihr anschließendes Training (Verbesserung) unterschiedlich ausfallen wird.
Wenn ich es richtig verstanden habe, dann sollten alle nächsten Trainings (Optimierungen) durchgeführt werden, ohne Daten aus dem ANN-Verzeichnis zu entfernen, sondern nur das Optimierungsintervall um einen neuen Zeitraum (einen Tag oder eine Woche) verlängern, d.h. das Startdatum des Intervalls sollte sich während einer neuen Optimierung nicht ändern?
Bitte lesen Sie die Anweisungen des EA sorgfältig durch, um herauszufinden, welche Werte für x während der Optimierung verwendet werden sollten, und stellen Sie keine weiteren dummen Fragen.
Wenn Sie es für sich selbst tun, dann:
Gib dem Spiegel nicht die Schuld, wenn du dich irrst (von Kozma Prutkov)
Es tut mir leid, ich habe nicht ganz verstanden, dass x von 0 bis 1000000 eine schwierige Bedingung ist.
Es tut mir leid, ich wusste nicht, dass x von 0 bis 1000000 eine harte Bedingung ist.
Sie brauchen nicht zu fragen oder etwas zu verlangen.
Normale Menschen halten sich zunächst an die Anweisungen und experimentieren dann auf eigenes Risiko, wenn sie kompetent genug sind.
Die abnormalen machen alles auf einmal durch die... Und dann beginnen sie sich zu beschweren.
mgribachev писал(а) >>
Wenn ich es richtig verstanden habe, dann sollten alle nachfolgenden Trainings (Optimierungen) durchgeführt werden, ohne dass Daten aus dem ANN-Katalog gelöscht werden, sondern lediglich das Optimierungsintervall um einen neuen Zeitraum (einen Tag oder eine Woche) verlängert werden, d.h. das Startdatum des Intervalls sollte während der neuen Optimierung unverändert bleiben?
Ich weiß nicht einmal, wie ich antworten soll, um es relevanter zu machen? Versuchen Sie zunächst, Ihre Frage zu beantworten:
Wenn Sie eine andere Sendung im Fernsehen sehen möchten, welche Maßnahmen würden Sie ergreifen?
1. Auf dem vorherigen Fernseher schauen?
2. Den alten Fernseher ausbauen, einen neuen kaufen und auf ihm schauen?
Lesen Sie das EA-Handbuch noch einmal sorgfältig durch, um zu sehen, ob dort das Entfernen der Gitter erwähnt wird.
Kann jemand etwas an den Beispielen von FANN erklären? Insbesondere wird in der Datei cascade_train.c folgendes geschrieben:
Wahrscheinlich verstehe ich etwas nicht, aber es scheint, dass jedes nachfolgende Upload-Paar von Trainings- und Testdateien die vorherigen überschreibt. Warum ist das so? Außerdem gibt es ein Speicherleck, weil fann_destroy_train(data) zwischen den Ladevorgängen nicht aufgerufen wird;Und es gibt noch mehr:
Was soll das bringen?Jemand hat alle Optionen auskommentiert. Der Code aus dem CVS enthält keine derartigen Fehler.