L'étiquette du marché ou les bonnes manières dans un champ de mines - page 43

 
Neutron >> :

L'homme prudent est l'homme meilleur ! La procédure de resserrement n'est pas compliquée, et l'entraînement NS n'en souffre pas - c'est une méthode efficace.

Quant au fait de ne pas atteindre les valeurs optimales, c'est du pur bluff pour nos BP. Je comprends si vous prévoyez une onde sinusoïdale ! - Alors oui, il existe des valeurs optimales. Mais qu'en est-il de ceux qui sont dans l'agitation du marché ? Maintenant, l'optimum est là, et à l'étape suivante (que vous prédisez), il est là... et vous l'avez cherché "ici" de toutes vos forces. En bref, il n'y a pas de problème de localisation exact, et il est résolu de manière satisfaisante par un surentraînement à chaque étape.

L'affirmation inverse est également vraie : si le minimum global n'est pas trouvé, ou du moins son voisinage, la formation à chaque étape peut ne pas être satisfaisante. J'ai étudié un peu ce problème, j'ai personnellement obtenu quelque chose comme de l'auto-déception, lorsque l'erreur semble diverger asymptotiquement sur les deux échantillons, mais le réseau de la même configuration à des intervalles de temps différents a donné des signaux d'achat/vente complètement opposés. Même si l'espérance mathématique de gagner était positive, j'en suis venu à la conclusion que je jouais encore au casino. Et tout cela, respectivement, à cause des coefficients de pondération initiaux, c'est la conclusion à laquelle je suis arrivé. Ce sont mes pensées :)

 
registred писал(а) >>

D'ailleurs, à la suite de mes observations, la meilleure randomisation des poids à laquelle la grille apprend rapidement se situe dans l'intervalle [-0.07 ; +0.07]. Je ne sais pas pourquoi c'est le cas :)

Cela signifie que vous n'avez pas assez d'époques d'apprentissage. À la limite, quel que soit le point de départ (même +/-10), la grille devrait rouler vers l'optimum, qui est proche des petites valeurs pour les données d'entrée centrées. Vous le déplacez artificiellement à cet endroit. Ce n'est pas toujours une bonne chose.

L'affirmation inverse est également vraie : si le minimum global ou au moins son voisinage n'est pas trouvé, la formation à chaque étape peut ne pas être satisfaisante. J'ai étudié un peu ce problème, j'ai personnellement obtenu quelque chose comme de l'auto-déception, lorsque l'erreur semble diverger asymptotiquement sur les deux échantillons, mais le réseau de la même configuration à des intervalles de temps différents a donné des signaux d'achat/vente complètement opposés. Même si l'espérance mathématique de gagner était positive, j'en suis venu à la conclusion que je jouais toujours au casino. Et tout cela, respectivement, à cause des coefficients de pondération initiaux, c'est la conclusion à laquelle je suis arrivé. Ce sont mes pensées :)

C'est le symptôme d'une grille mal formée. Êtes-vous sûr que le vecteur d'apprentissage n'était pas plus court que le vecteur optimal P=w^2/d?

 
Neutron >> :

Cela signifie que vous n'avez pas assez d'époques d'entraînement. À la limite, quel que soit le point de départ (même +/-10), la grille devrait rouler vers un optimum, qui, pour des données d'entrée centrées, se situe au voisinage des petites valeurs. Vous le déplacez artificiellement à cet endroit. Ce n'est pas toujours une bonne chose.

Oui, j'essaie de le garder au minimum. Je ne veux pas attendre qu'il finisse par me donner quelque chose après quelques centaines de milliers d'époques. En général, quelques milliers ou dizaines de milliers suffisent.

 
registred писал(а) >>

En général, quelques milliers ou dizaines de milliers suffisent.

Surpris !

J'en ai eu quelques centaines.

 
Neutron >> :

Cela signifie que vous n'avez pas assez d'époques d'apprentissage. À la limite, quel que soit le point de départ (même +/-10), la grille devrait rouler vers un optimum, qui, pour des données d'entrée centrées, se situe au voisinage des petites valeurs. Vous le déplacez artificiellement à cet endroit. Ce n'est pas toujours une bonne chose.

C'est le symptôme d'une grille mal formée. Êtes-vous sûr que le vecteur d'apprentissage n'était pas plus court que le vecteur optimal P=w^2/d ?

Honnêtement, je n'ai pas regardé de telles formules depuis longtemps, tout par expérience, en commençant par un petit nombre de neurones, et en continuant tout ça jusqu'à ce que les erreurs se séparent asymptotiquement sur deux échantillons. Ayant trouvé la valeur optimale des poids dans la couche, je réentraîne le réseau plusieurs fois et on obtient des résultats différents sur le même échantillon, mais les poids initiaux sont différents pour chaque grille. Essayez de réapprendre votre filet à partir de zéro et voyez si vous obtenez les mêmes transactions sur l'historique. Vous me le direz plus tard, ça m'intéresse de le savoir.

 
Neutron >> :

Surpris !

J'en ai quelques centaines.

>> bien, comme ils disent, le vol est bien.)

 
registred писал(а) >>

Essayez de réentraîner votre réseau à partir de zéro et voyez si vous obtenez les mêmes transactions sur l'historique. Dites-le-moi plus tard, ça m'intéresserait de le savoir.

Bien sûr que non !

Toutes les transactions seront différentes, et ainsi de suite de temps en temps, mais le bénéfice est en moyenne le même (et très faible). Je suis intéressé par la répétabilité des moyennes, cela permet d'économiser des ressources informatiques.

 
Neutron >> :

Eh bien, non, bien sûr que non !

Toutes les transactions seront différentes, à chaque fois, mais le bénéfice moyen est le même (et très faible). Je m'intéresse à la répétabilité des moyennes.

Donc je pense que vous jouez dans un casino. Je vous conseille d'utiliser des comités, car cela peut donner le meilleur effet. Personnellement, je ne suis pas satisfait de ces conditions de travail. Je ne peux pas me permettre de recycler le réseau sur de nouvelles données, cela introduit des erreurs et n'est pas rentable, si après le recyclage le réseau est testé à nouveau sur cet historique.

 

Oui, je pense que je l'ai. Les résultats de la grille avec randomisation initiale n'ont apparemment pas besoin d'être répétés exactement. Il suffit que le résultat soit stable sur une petite plage.

Par exemple, voici à quoi cela ressemble :

OPTION 1 :


EXEMPLE 2 :


Les données d'entrée, à part l'initialisation initiale, qui a été effectuée dans les deux cas, sont les mêmes.

 

C'est ça, camarade !