Utilisation des réseaux neuronaux dans le trading - page 14

 
TheXpert:
Ah, c'est facile. Dès qu'il commence à apprendre, c'est suffisant.


Je vais maintenant faire une démonstration du nouveau réseau. Avec tous les tests.
 
TheXpert:
Ah, c'est facile. Dès qu'il commence à apprendre, c'est suffisant.

Le Perseptron de Reshetov apprend aussi quelque chose, mais ce n'est évidemment pas assez.....

À mon avis, pour parler de suffisance, il faut d'une manière ou d'une autre apprendre à analyser les résultats de l'entraînement, sur la VO, en fonction de la période d'entraînement (nombre d'exemples d'entrée) et la VO seule n'est pas une aide ici. Cela fait longtemps que je trébuche sur cet endroit, je sens que la vérité est quelque part à proximité, mais je ne peux pas la saisir.

 
Figar0:

Je trébuche dans cet endroit depuis longtemps, je sens que la vérité est quelque part à proximité, mais je n'arrive pas à la saisir.

Je ne sais pas, c'est la chose la plus élémentaire à ce sujet.
 
Figar0:

Le Perseptron de Reshetov apprend aussi quelque chose, mais ce n'est évidemment pas assez.....

À mon avis, pour parler de suffisance, il faut d'une manière ou d'une autre apprendre à analyser les résultats de l'entraînement, sur la VO, en fonction de la période d'entraînement (nombre d'exemples d'entrée) et la VO seule n'est pas une aide ici. Cela fait longtemps que je trébuche sur cet endroit, je sens que la vérité est quelque part à proximité, mais je ne peux pas la saisir.


Je semble l'avoir compris. Optimisation sur un grand échantillon. J'obtiens que le drawdown soit inférieur au profit net. Ensuite, je réduis l'échantillon et j'ajoute un dernier neurone de raffinage. Je peux me tromper. Je vais poster un exemple.
 

J'ai utilisé plusieurs approches dans mes recherches :

1) donner au réseau une entrée gauche, bien inattendue, comme un changement quotidien de la météo du soleil, et lui apprendre à négocier sur cette entrée pendant un mois par exemple. Ici, le filet dans sa forme pure devrait démontrer sa capacité à se souvenir/suivre. Puis a donné des entrées normales. J'ai essayé d'analyser la différence entre les résultats des entraînements d'une manière ou d'une autre.

2) Nous avons essayé d'analyser le résultat de la formation en fonction de l'augmentation de la taille de l'échantillon de formation. Dans presque tous les réseaux et toutes les configurations, jusqu'à un certain moment, on observe une augmentation du résultat, puis généralement une stagnation, et une augmentation supplémentaire du nombre d'échantillons d'entrée peut conduire à des résultats plus mauvais.

Avec les résultats de mes recherches, j'essaie de tirer des conclusions sur la suffisance du réseau et la période d'entraînement, et s'il y a un lien entre les deux. C'est pourquoi je suis entré dans ce fil. Peut-être que quelqu'un suggérera quelque chose.

 
Il y a une erreur quadratique moyenne cumulative. Il peut être comparé pour différents réseaux. Et l'utiliser pour déterminer si elle apprend quelque chose.
 
TheXpert:
Il y a une erreur quadratique moyenne cumulative. Il peut être comparé pour différents réseaux. Et l'utiliser pour déterminer si elle apprend quelque chose.

Erreur de quoi ?
 
grell:
Erreur de quoi ?
La sortie, bien sûr.
 
TheXpert:
La sortie, bien sûr.


Et si la sortie n'est pas prévue, alors comment ?
 
grell:

Je l'ai un peu bâclé. Optimisation sur un grand échantillon. J'obtiens que le drawdown soit inférieur au profit net. Ensuite, je réduis l'échantillon et j'ajoute un dernier neurone de raffinage. Je peux me tromper. Je vais poster un exemple.
Ce serait bien, par exemple j'aimerais voir comment le conseiller expert fonctionne exactement sur la période de formation, que vous considérez comme réussie.