Wie man die Eingabewerte für die NS richtig bildet. - Seite 9

 
sergeev писал (а) >> 3. die Frage des Übertrainings des Netzes

Die Frage des Übertrainings ist nicht einfach, und es gibt keine eindeutige Antwort. Um ein Übertraining zu vermeiden, wird manchmal das Cross-Checking eingesetzt, das aber nicht immer hilft, wenn die Trainingszeit zu kurz ist. Aber im Allgemeinen ist die beste Kontrolle gegen Übertraining ein echtes oder ein OOC.

 
TheXpert писал (а) >>

Ja, ich werde heute Abend etwas zu lesen haben, möglicherweise werde ich bald den Code herausholen :)

Ehhh. Ich verstehe wirklich nicht, warum sie nicht "schnell" an die Idee glauben und sich dann an die Programmierung machen wollen.

Wenn Sie zum Thema zurückkehren, stellt sich heraus, dass die "richtigen" Eingaben bereits gefunden wurden, sie sind normalisiert und das Einzige, was noch übrig ist ... ... soll rechtzeitig zur "Meisterschaft" kommen. Alles (im Sinne von Werkzeugen, nicht von Inputs) ist bereits erfunden worden. In diesem Zusammenhang - Neurosolutions oder Neuroshel 2 (und viele andere Programme). Stellen Sie zumindest sicher, dass die UND-Eingaben "falsch" sind und die "Normalisierung" sie noch mehr verzerrt, das geht schnell.

Ja. Es gibt ein Argument - alle Programme sind veraltet, Algorithmen sind mit Moos bedeckt, aber ... vielleicht sind die Eingaben ja doch falsch :)

'

Hier bin ich, vom veralteten, "genagelten" "Netzwerk" "Polynominales Netz (GMDH)" (aus NeuroShell 2) - zehn Stunden Training/Lernen und die Marktformel ist fertig :)

 
sergeev писал (а) >> 9 Rekursive Netze

Das Gute an rekurrenten Netzen ist, dass es keine "Lehrer" gibt. Wir schließen also eine sehr wichtige Variable aus - die "Lehrer" des Netzwerks. Da es möglich ist, bei den Ausgabedaten (mit denen das Netz trainiert wird) einen Fehler zu machen, können wir uns, nachdem wir diese ausgeschlossen haben, nur noch auf die Suche nach den Eingaben konzentrieren.

 
LeoV писал (а) >>
Bei der Kreuzvalidierung wird z. B. ein Netz im Jahr 2007 trainiert, und das beste Ergebnis aus dem Jahr 2007 wird im Jahr 2008 "getestet", und wenn es besser ist als das vorherige (ebenfalls im Jahr 2008 "getestete"), wird dieses Netz belassen. Und so weiter. Genauso kann es sein, dass man 2007 keine besseren Ergebnisse erzielt, aber man muss sich keine Sorgen machen, weil das Netz 2008 überprüft wird. Auf diese Weise vermeiden wir ein Übertraining (für das Netz) oder eine Überoptimierung (für den TC).

Es ist ein Vorwärts-Test, EMMNIP :), ich denke, Sie sollten auch Haykin lesen.

Und im Allgemeinen sind Ihre letzten Beiträge nicht informativ, können Sie endlich anfangen, wirklich nützliche Gedanken zu äußern?

 
TheXpert писал (а) >>

Es ist ein Vorwärtstest, EMNIP :), ich denke, Sie sollten auch Haykin lesen.

Und im Allgemeinen gibt es unter Ihren jüngsten Beiträgen nicht einen einzigen informativen, können Sie endlich anfangen, wirklich nützliche Gedanken zu äußern?

Tut mir leid, tut mir leid, nicht schon wieder. Ich übertreibe ein wenig.....)))))

 
LeoV писал (а) >>

Das Gute an rekurrenten Netzen ist, dass es keine "Lehrer" gibt. Wir schließen also eine sehr wichtige Variable aus - die "Lehrer" des Netzwerks. Wenn wir also eine sehr wichtige Variable - die Lehrer - ausklammern, können wir uns nur auf die Suche nach Inputs konzentrieren.

Wie? Oh, rekurrente Netze haben keinen Lehrer? Rekurrente Netze unterscheiden sich von MLPs durch das Vorhandensein von Rückkopplungen, aber in keiner Weise durch das Fehlen eines Lehrers. RTFM über die Modelle von Elman und Jordan.

 
TheXpert писал (а) >>

Es ist ein Vorwärts-Test, EMNIP :)

Letzter Punkt, Entschuldigung. Die Vorwärtsprüfung ist anders. Aber vielleicht habe ich es nicht gut erklärt? Aber ich habe es noch einmal gelesen - es scheint Sinn zu machen. Du hast es einfach nicht kapiert.....

 
TheXpert писал (а) >>

Was??? Ooo Rekurrente Netzwerke haben keinen Lehrer? Rekurrente Netze unterscheiden sich von MLPs durch das Vorhandensein von Rückkopplungen, aber nicht durch das Fehlen eines Lehrers. RTFM über die Modelle von Elman und Jordan.

Wenn das so ist, dann ist das so! Ich habe nichts dagegen, ))))

 
SergNF писал (а) >>

Eh. Ich verstehe wirklich nicht, warum sie nicht "schnell" an eine Idee glauben und dann mit dem Programmieren beginnen wollen.

Wenn wir zum Thema zurückkehren, stellt sich heraus, dass sie bereits die "richtigen" Eingaben gefunden und normalisiert haben und alles, was übrig bleibt, ist... ... soll rechtzeitig zur "Meisterschaft" kommen. Alles (im Sinne von Werkzeugen, nicht von Inputs) ist bereits erfunden worden. In diesem Zusammenhang - Neurosolutions oder Neuroshel 2 (und viele andere Programme). Stellen Sie zumindest sicher, dass die UND-Eingaben "falsch" sind und die "Normalisierung" sie noch mehr verzerrt, das geht schnell.

Ja. Es gibt ein Argument - alle Programme sind veraltet, Algorithmen sind mit Moos bedeckt, aber ... vielleicht sind die Eingaben ja doch falsch :)

'

Hier bin ich, vom veralteten, "genagelten" "Netzwerk" "Polynominales Netz (GMDH)" (aus NeuroShell 2) - zehn Stunden Training/Lernen und die Marktformel ist fertig :)

Das tue ich auch, aber da ich meine eigene Software habe, benutze ich sie.

Und was den Code betrifft - werden Neurosolutions oder Neuroshell 2 den Code auf MQL4 portieren? Ich werde ein paar Funktionen schreiben, von denen ich denke, dass sie für die Menschen vor Ort und vielleicht auch für mich nützlich sein werden. Zumal es eine Stunde dauert, hundert Zeilen Code zu schreiben.

 
LeoV писал (а) >>

Ein letzter Punkt, Entschuldigung. Die Vorwärtsprüfung ist anders. Aber vielleicht habe ich es nicht gut erklärt. Aber ich habe es noch einmal gelesen - es scheint Sinn zu machen. Du hast es einfach nicht kapiert.....

Macht nichts, tut mir leid, wenn ich falsch liege.