Comment former correctement les valeurs d'entrée pour le NS. - page 10

 
TheXpert писал (а) >>

Peu importe, désolé si je me trompe.

Je vais essayer d'expliquer plus en détail ce qu'est cette vérification croisée, si ce message n'est pas clair. Supposons que l'on forme un réseau pour une erreur minimale. Supposons que nous l'ayons essayé sur 2007 et obtenu un résultat intermédiaire de 0,5. Nous le vérifions sur 2008 et obtenons 0,8. Ce réseau est mémorisé et nous continuons l'entraînement. Nous avons ensuite obtenu 0,4 pour 2007 et l'avons vérifié avec 0,7 pour 2008. Les anciens filets sont jetés, et nous mémorisons ce filet et le suivons avec la formation. Ensuite, nous avons obtenu 0,3 pour 2007 et 0,6 pour 2008. L'ancien filet est jeté et il faut se souvenir de ce filet et continuer à s'entraîner. Pour 2007 - 0,2, pour 2008 - 0,8. Ce réseau n'est pas mémorisé, le précédent est conservé. Il sera gardé en mémoire et formé ultérieurement. Si on n'a pas réussi à le faire descendre en dessous de 0,6 en 2008, on garde le réseau avec 0,6 en 2008 et 0,3 en 2007, et non celui avec 0,2 ou moins en 2007. En effet, la poursuite de la formation du réseau est une surformation. Cela évite le surentraînement, même si cela ne le sauve pas toujours.

Et comme vous pouvez le constater, le test d'anticipation n'a rien à voir avec cela......)))))

 
TheXpert писал (а) >>

...

Et à propos du code -- Neurosolutions ou Neuroshel 2 porteront-ils le code vers MQL4 ? Je vais écrire quelques fonctions qui, je pense, seront utiles aux habitants d'ici, et peut-être à moi aussi. Raison de plus pour écrire une centaine de lignes de code - cela me prendra une heure.

Non. En important la dll/def ou en réécrivant à partir de "c".

Je vais écrire quelques fonctions qui, je pense, seront utiles aux habitants d'ici, et peut-être à moi aussi. Raison de plus pour écrire une centaine de lignes de code - c'est une heure de temps.

Surtout s'ils seront consacrés à "1. Préparation des données d'entrée. (décalage de la moyenne, décorrélation, égalisation de la covariance).", alors très cool, et si ... une autre implémentation de NS dans MQL4, alors ...

Je n'ai, par exemple, jamais pu comprendre comment implémenter les beaux mots "signification des entrées", "corrélation croisée des entrées" dans le code (aucun Ezhov n'est à portée de main pour insérer de plus beaux mots). C'est à dire des formules/algorithmes je sais, mais à OHLC, bruit ou vice versa filtres DC, et juste des "valeurs discrètes" quand les minutes sont drôles et les jours sont en retard. :)

 
SergNF писал (а) >>

Non. En important la dll/def ou en réécrivant à partir de "s".

Surtout si elles seront consacrées à "1. Préparation des données d'entrée. (Déplacements de moyenne, décorrélation, égalisation de covariance).",

>> C'est exact.

Pour ma part, je n'ai jamais réussi à comprendre comment mettre en œuvre les jolis mots "signification des entrées", "corrélation croisée des entrées" dans le code (pas d'Ezhov à portée de main pour insérer d'autres jolis mots). C'est-à-dire des formules/algorithmes je sais, mais à l'OHLC, le bruit ou vice versa les filtres DC, et juste des "valeurs discrètes" quand les minutes sont drôles et les jours sont en retard. :)

Quel est le problème ? Les formules ne se soucient pas de savoir si on leur donne des données à la minute ou à la semaine.

 
LeoV писал (а) >>

Je vais essayer d'expliquer plus en détail ce qu'est cette vérification croisée, si ce message n'est pas clair. Supposons que nous formons un réseau pour une erreur minimale. Supposons que nous l'ayons essayé sur 2007 et obtenu un résultat intermédiaire de 0,5. Nous le vérifions sur 2008 et obtenons 0,8. Ce réseau est mémorisé et nous continuons l'entraînement. Nous avons ensuite obtenu 0,4 pour 2007 et l'avons vérifié avec 0,7 pour 2008. Les anciens filets sont jetés, et nous mémorisons ce filet et le suivons avec la formation. Ensuite, nous avons obtenu 0,3 pour 2007 et 0,6 pour 2008. L'ancien filet est jeté et il faut se souvenir de ce filet et continuer à s'entraîner. Pour 2007 - 0,2, pour 2008 - 0,8. Ce réseau n'est pas mémorisé, le précédent est conservé. Elle sera gardée en mémoire et fera l'objet d'une formation ultérieure. Si on n'a pas réussi à le faire descendre en dessous de 0,6 en 2008, on garde le réseau avec 0,6 en 2008 et 0,3 en 2007, et non celui avec 0,2 ou moins en 2007. En effet, la poursuite de la formation du réseau est une surformation. Cela évite le surentraînement, même si cela ne le sauve pas toujours.

Et comme vous pouvez le constater, le test d'anticipation n'a rien à voir avec cela......)))))

En d'autres termes, la formation/optimisation se termine non pas lorsque l'erreur est minimale sur l'échantillon de formation, mais avant que l'erreur ne commence à augmenter sur l'échantillon de test.

 
Erics писал (а) >>

En d'autres termes, l'entraînement/optimisation se termine non pas lorsque l'erreur est minimale dans l'échantillon d'entraînement, mais avant que l'erreur ne commence à augmenter dans l'échantillon de test.

Donc, en gros, oui. Parce que la théorie dit que l'ampleur de l'erreur sur l'échantillon test diminue d'abord lorsque l'erreur sur l'échantillon d'entraînement diminue, puis commence à augmenter, bien que l'erreur sur l'échantillon d'entraînement continue à diminuer. L'astuce est d'attraper ce creux. C'est le moment du surentraînement (pour les réseaux) ou de la suroptimisation (pour les CT).

 
LeoV писал (а) >>

Eh bien, oui. En effet, la théorie veut que l'erreur sur l'échantillon test diminue d'abord lorsque l'erreur sur l'échantillon d'entraînement diminue, puis commence à augmenter, même si l'erreur sur l'échantillon d'entraînement continue à diminuer. L'astuce est d'attraper ce creux. C'est le moment du surentraînement (pour les réseaux) ou de la sur-optimisation (pour les CT).

 
sergeev писал (а) >>

Tout à fait exact. Il y a juste une petite remarque à faire. Lorsque la courbe est ascendante, il peut y avoir des minima, mais ils devraient être plus élevés que le premier minimum (en théorie). Bien que parfois cela puisse être moins (dans la pratique), mais c'est rare.

 

Et voici une photo sur le surentraînement

 
LeoV писал (а) >>

Tout à fait exact. Il y a juste une petite remarque à faire. Lorsque la courbe est ascendante, il peut y avoir des minima, mais ils devraient être plus élevés que le premier minimum (en théorie). Bien que cela puisse parfois être moins (dans la pratique), mais c'est rare.

Bon point.

En général, la théorie dans ce fil a déjà dit beaucoup de choses (vous pouvez défendre une thèse sur notre forum :).

Et l'esprit est maintenant assoiffé d'expériences pratiques et de connaissances.

Si possible, laissez les praticiens partager leur expérience en matière d'analyse et de préparation des valeurs d'entrée . Il s'agit d'exemples concrets.

>> Merci.

 
sergeev писал (а) >> Si possible, laissez les praticiens partager leur expérience dans l'analyse et la préparation des contributions . C'est-à-dire des exemples concrets.

Les valeurs d'entrée ne sont pas non plus une question simple. Ce qu'il faut fournir à l'entrée du réseau dépend de nombreux facteurs.

1. Quel type de réseau neuronal est utilisé.

2. Que voulons-nous obtenir du réseau neuronal - le prix, la direction du mouvement, les points de retournement, la prochaine bougie ou autre chose.

Vous devez donc d'abord décider de ces questions, puis décider des intrants.