Comment former correctement les valeurs d'entrée pour le NS. - page 9

 
sergeev писал (а) >> 3 . la question du surentraînement du réseau

La question du surentraînement n'est pas simple et il n'existe pas de réponse claire. Pour éviter le surentraînement, on a parfois recours au contrôle croisé, mais il n'est pas toujours utile si la période d'entraînement est trop courte. Mais en général, le meilleur moyen de se prémunir contre le surentraînement est d'avoir un réel ou un OOC.

 
TheXpert писал (а) >>

Oui, j'aurai quelque chose à lire ce soir, il est fort possible que je sorte le code bientôt :)

Ehhh. Je ne comprends vraiment pas pourquoi ils ne veulent pas croire "rapidement" à l'idée et s'asseoir ensuite pour coder.

Si l'on revient au sujet, il s'avère que l'on a déjà trouvé les "bonnes" entrées, qu'elles sont normalisées et qu'il ne reste plus qu'à ... ... est d'être à temps pour le "championnat". Tout (dans le sens d'outils, pas d'intrants) a déjà été inventé. Dans ce contexte - Neurosolutions ou Neuroshel 2 (et de nombreux autres programmes). Assurez-vous au moins que les entrées ET sont "fausses" et que la "normalisation" les déforme encore plus, ce sera rapide.

Oui. Il y a un argument - tous les programmes sont dépassés, les algorithmes sont couverts de mousse, mais ... peut-être que les entrées sont fausses après tout :)

'

Me voici, depuis le "réseau" obsolète, "cloué" "Polynominal Net (GMDH)" (de NeuroShell 2) - dix heures de formation/apprentissage et la formule du marché est prête :)

 
sergeev писал (а) >> 9 Réseaux récursifs

L'avantage des réseaux récurrents est qu'il n'y a pas de "professeurs". Ainsi, nous excluons une variable très importante - les "enseignants" du réseau. Comme il est possible de faire une erreur avec les données de sortie (sur lesquelles le réseau sera formé), après les avoir exclues, nous pouvons nous concentrer uniquement sur la recherche des entrées.

 
LeoV писал (а) >>
La validation croisée consiste, par exemple, à former un réseau à l'intervalle 2007 et à "tester" le meilleur résultat obtenu à l'intervalle 2007 à l'intervalle 2008. S'il est meilleur que le précédent (également "testé" en 2008), ce réseau est conservé. Et ainsi de suite. De la même manière, vous n'obtenez pas de meilleurs résultats en 2007, mais vous ne devez pas vous en inquiéter, car le réseau est contrôlé en 2008. De cette façon, nous évitons le surentraînement (pour le réseau) ou la suroptimisation (pour le CT).

C'est du forward-testing, EMMNIP :), je pense que vous devriez lire Haykin aussi.

Et en général vos derniers posts ne sont pas informatifs, pouvez-vous enfin commencer à exprimer des pensées vraiment utiles ?

 
TheXpert писал (а) >>

C'est le test de l'avenir, EMNIP :), je pense que vous devriez lire Haykin aussi.

Et en général, de vos récents posts il n'y a pas un seul informatif, pouvez-vous enfin commencer à exprimer des pensées vraiment utiles ?

Désolé, désolé, pas encore. Je m'emballe un peu. .....)))))

 
LeoV писал (а) >>

L'avantage des réseaux récurrents est qu'il n'y a pas de "professeurs". Ainsi, nous excluons une variable très importante - les "enseignants" du réseau. Ainsi, si nous excluons une variable très importante - les enseignants, nous pouvons nous concentrer uniquement sur la recherche d'intrants.

Quoi ? Ooh Les réseaux récurrents n'ont pas de professeur ? Les réseaux récurrents diffèrent des MLP en présence de rétroactions, mais en aucun cas en l'absence d'un enseignant. RTFM sur les modèles Elman et Jordan.

 
TheXpert писал (а) >>

C'est le test de l'avenir, EMNIP :)

Dernier point, désolé. Le test de l'avant est différent. Mais peut-être que je ne l'ai pas bien expliqué ? Mais je l'ai relu - ça semble avoir du sens. Vous n'avez pas compris. .....

 
TheXpert писал (а) >>

Whaa ??? Ooo Les réseaux récurrents n'ont pas de professeur ? Les réseaux récurrents diffèrent des MLP en présence de rétroactions, mais pas en l'absence d'un enseignant. RTFM sur les modèles d'Elman et Jordan.

Eh bien, si c'est le cas, alors c'est le cas ! Cela ne me dérange pas ))))

 
SergNF писал (а) >>

Eh. Je ne comprends vraiment pas pourquoi ils ne veulent pas croire "rapidement" à une idée et s'atteler ensuite au codage.

Si nous revenons au sujet, il s'avère qu'ils ont déjà trouvé les "bonnes" entrées, les ont normalisées et il ne reste plus qu'à... ... est d'être à temps pour le "championnat". Tout (dans le sens d'outils, pas d'intrants) a déjà été inventé. Dans ce contexte - Neurosolutions ou Neuroshel 2 (et de nombreux autres programmes). Assurez-vous au moins que les entrées ET sont "fausses" et que la "normalisation" les déforme encore plus, ce sera rapide.

Oui. Il y a un argument - tous les programmes sont dépassés, les algorithmes sont couverts de mousse, mais ... peut-être que les entrées sont fausses après tout :)

'

Me voici, depuis le "réseau" obsolète, "cloué" "Polynominal Net (GMDH)" (de NeuroShell 2) - dix heures de formation/apprentissage et la formule du marché est prête :)

C'est ce que je fais, mais comme j'ai mon propre logiciel, je l'utilise.

Et à propos du code - Neurosolutions ou Neuroshell 2 porteront-ils le code vers MQL4 ? Je vais écrire quelques fonctions qui, je pense, seront utiles aux habitants de la région, et peut-être à moi aussi. D'autant plus qu'il faut une heure pour écrire une centaine de lignes de code.

 
LeoV писал (а) >>

Un dernier point, désolé. Le test de l'avant est différent. Mais peut-être que je ne l'ai pas bien expliqué. Mais je l'ai relu - ça semble avoir du sens. Vous n'avez pas compris. .....

Peu importe, désolé si je me trompe.