Réseau neuronal - page 4

 
joo писал(а) >> la seule bonne solution serait "d'apprendre sans professeur".

Absolument. Parce qu'il n'y a pas de professeur parfait pour le réseau. Ou plutôt, nous ne pouvons pas savoir quel serait le professeur idéal pour le réseau.....))))

 
LeoV >> :

Absolument. Parce qu'il n'y a pas de professeur parfait pour le réseau. Ou plutôt, nous ne pouvons pas savoir quel serait le professeur idéal pour le réseau.....))))

Exactement ! Avec un professeur, il est seulement possible d'enseigner une grille sur une fonction que l'on connaît déjà, comme une onde sinusoïdale. Ici, nous pouvons, sans hésiter, alimenter le réseau de la façon suivante pour

du point formé en tant qu'enseignant. Cette astuce ne fonctionnera pas avec le marché.

 
joo писал(а) >> Exactement ! Vous pouvez entraîner la grille avec un professeur uniquement sur une fonction que nous connaissons déjà, par exemple une onde sinusoïdale. Ici, nous pouvons, en toute bonne conscience, alimenter la grille le prochain au point formé comme un enseignant. Cela ne fonctionnera pas avec le marché.

Oui, et dans ce cas, plus l'erreur sur l'échantillon de formation est faible, mieux c'est pour le réseau. Cela ne va pas marcher avec le marché.

 

Il n'est pas conseillé de construire un réseau strictement sur la base d'un entraînement avec un professeur, il est plus facile de décrire tous les modèles manuellement dans le code, il y aura moins d'erreurs.

Le véritable objectif du réseau neuronal est d'enseigner sans professeur, d'enseigner ce que le professeur ne sait pas,

Vous serez en mesure d'identifier des modèles que vous ne voyez pas personnellement (et que personne d'autre ne voit, ce qui est un avantage).

Blonde à ami : tu sais ce que signifie "je ne sais pas".

Petite amie : "Je ne sais pas".

Blonde : Eh bien, personne ne sait.

 
LeoV >> :
gpwr wrote(a) >> Il est écrit partout que le réseau doit être entraîné jusqu'à ce que l'erreur sur l'échantillon testé cesse de diminuer.

C'est en fait beaucoup plus compliqué que ça. Lorsque vous l'entraînez jusqu'à l'erreur minimale sur l'échantillon testé, vous risquez d'obtenir un réseau surentraîné.......

C'est peu probable. La vérité. Et réduire la puissance du réseau pour une meilleure généralisation ne sert à rien. L'erreur minimale sur le test est un échec sur l'avant.
 
muallch писал(а) >>
C'est peu probable, mais c'est le cas. La vérité. Et réduire la puissance du réseau pour une meilleure généralisation ne sert à rien. L'erreur minimale sur le test est un échec sur l'avant.

D'accord. J'ai utilisé l'expression "très probablement" dans le sens d'un surentraînement sans ambiguïté .....)))). Et réduire la puissance du secteur peut parfois aider, cependant.......

 
muallch >> :
Ce n'est pas probable, c'est vrai. >> Vérité. Et réduire la puissance du réseau pour une meilleure généralisation ne sert à rien. L'erreur minimale sur le test est un échec sur l'avant.

Vous, les citoyens, commencez à comprendre quelque chose. Soit vous avez inventé quelque chose de nouveau, soit nous ne nous comprenons pas.

Tous les manuels disent que l'entraînement d'un réseau avec un enseignant se fait en divisant les données en un échantillon d'entraînement et un échantillon de test. Le réseau est entraîné en minimisant l'erreur sur l'échantillon d'entraînement, alors qu'il y a une erreur sur l'échantillon de test (test ou vérification hors échantillon). L'apprentissage s'arrête lorsque l'erreur sur l'échantillon de test cesse de diminuer (illustré par une ligne pointillée ci-dessous). Et l'erreur sur l'échantillon d'entraînement peut continuer à diminuer comme le montre cette figure


Vous affirmez que la formation du réseau doit être arrêtée avant même la ligne pointillée de l'image. Où exactement ? Alors pourquoi former le réseau ? Selon votre logique, choisissez n'importe quelle valeur de poids et allez-y, utilisez le réseau pour le trading. C'est alors que vous aurez une chasse d'eau sûre.

 
LeoV >> :

D'accord. J'ai utilisé l'expression "très probablement" dans le sens d'un surentraînement sans ambiguïté .....)))). Et réduire la puissance du secteur peut parfois aider, cependant.......

Exactement. C'est le problème, parfois. Les Grails sur les MAs donnent parfois un profit sur une position à terme également. Il n'y a pas (du moins je n'ai pas tâtonné) de dépendance systémique claire des résultats prospectifs à la puissance (gonflement, neuronicité, etc.) d'une grille entraînée. Je ne dis pas que le type de grille n'a aucune incidence, mais c'est seulement l'un des critères. Mais la taille du bénéfice en dehors de l'échantillon testé a une dépendance claire (non linéaire) par rapport au degré d'apprentissage - de nombreuses expériences avec des tests "de bout en bout" le confirment.

 
gpwr >> :

Vous soutenez que la formation du réseau doit être arrêtée avant même la ligne pointillée dans l'image. Où exactement ? Alors pourquoi former le réseau ? Selon votre logique, choisissez n'importe quelle valeur de poids et allez-y, utilisez le réseau pour le trading. C'est à ce moment-là que vous aurez le bon drain.

Non, je ne le fais pas.


Et c'est difficile d'argumenter avec ça...

 
gpwr >> :

Vous, les citoyens, commencez à comprendre quelque chose. Soit vous avez inventé quelque chose de nouveau, soit nous ne nous comprenons pas.

Il est écrit dans tous les manuels que l'entraînement d'un réseau avec un enseignant se fait en divisant les données en un échantillon d'entraînement et un échantillon de test. Le réseau apprend en minimisant l'erreur sur l'échantillon de formation tout en observant l'erreur sur l'échantillon de test (test ou vérification hors échantillon). L'apprentissage s'arrête lorsque l'erreur sur l'échantillon de test cesse de diminuer (illustré par une ligne pointillée ci-dessous). De la même manière, l'erreur sur l'échantillon d'entraînement peut continuer à diminuer comme le montre l'image suivante

Il y a d'abord le hors-échantillon - pour ajuster la grille. Et puis il n'y en a pas - le véritable avenir est devant nous, il faut le prévoir. Quel est le critère pour arrêter l'entraînement - une certaine erreur ou le nombre de cycles d'entraînement ? Ou quelque chose d'autre ?