L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 629

 
Yuriy Asaulenko:

Maxim, eh bien, n'entraîne pas le réseau dans l'optimiseur MT. L'entraîneur NS et l'optimiseur sont des algorithmes complètement différents avec des critères d'optimalité complètement différents.

Si vous utilisez toujours cette structure NS, que vous avez dessinée auparavant, alors elle est un peu simple - faible pour le marché. J'ai déjà écrit que je n'ai réussi que lorsque j'ai atteint la structure 15-20-15-10-5-1. Et ceci pour un seul type de métiers. J'ai également fait absolument tout en utilisant les méthodes décrites par Haikin, c'est-à-dire rien de nouveau, pas d'astuces.

Les structures plus simples étaient mal formées.

Avez-vous essayé de prendre non pas le nombre de couches mais le nombre de neurones dans une couche ? Par exemple 15-200-1 ou 15-200-20-1 ?

Yuriy Asaulenko:

En fait, les données nécessaires à la formation ne sont pas nombreuses, mais très nombreuses. Sur un échantillon de petite taille, NS n'obtiendra rien d'utile.

Et combien de données prenez-vous ? Je prends 86000 cordes pour la formation.

 
elibrarius:

1) Avez-vous essayé de prendre non pas le nombre de couches, mais le nombre de neurones dans une couche ? Par exemple 15-200-1 ou 15-200-20-1 ?

2) Et combien de données prenez-vous ? Je prenais 86000 lignes pour la formation.

1. Je ne l'ai pas essayé. 20 dans la première couche est tout à fait suffisant. En augmentant à la fois les neurones par couche et les couches.

2. J'avais environ 12000 lignes dans la formation avec un brassage intermédiaire entre N époques. Après quelques époques, les données de formation ont été remplacées par d'autres données qui n'avaient pas été impliquées dans la formation auparavant.

 
Aleksey Terentev:

Je m'excuse pour l'insulte, mais vous devriez relire votre message. Cela semble plutôt ambigu.
Et en général, vous avez raison, mais seulement en ce qui concerne la première couche du réseau neuronal. Si le retour d'information va vers la deuxième couche et les couches suivantes ou, en général, vers des couches de réseau parallèles, votre affirmation deviendra invalide.
Dans ce cas, Maxim doit penser à approfondir le réseau et à apporter du feedback aux couches cachées.

Et qu'en est-il :

C'est la même chose. Les MLP ne sont plus pertinents depuis longtemps, l'apprentissage profond est à la mode depuis longtemps. Et un réseau est tout à fait capable de traiter des données hétérogènes, l'essentiel étant l'architecture.

Je suis d'accord, mais comment combiner la profondeur avec tous ces trucs qui sont apparus :) dans l'optimiseur sera un peu long à apprendre ... mais très, très haute qualité, parce que là et le commerce se produit à la fois

Je pense que plus de 30 poids n'est pas une option pour l'optimiseur.

+ Beaucoup de gens oublient qu'il y a un nuage, qui est généralement cool pour travailler avec toutes ces choses, mais il faut être très bon pour optimiser le code.

 
Maxim Dmitrievsky:

Je suis d'accord, mais comment combiner la profondeur avec tous ces trucs qui sont apparus :) dans l'optimiseur sera un peu long à apprendre ... mais très, très haute qualité, parce que là et le commerce se produit à la fois

Je pense que plus de 30 poids n'est pas une option pour l'optimiseur.

+ Je pense que beaucoup de gens oublient qu'il y a un nuage, à travers lequel toutes ces choses sont amusantes à travailler, mais il faut très bien optimiser le code.

Essayez de dupliquer la couche d'entrée.

 
Aleksey Terentev:


C'est la même chose. Les MLP ne sont plus d'actualité, l'apprentissage profond est à la mode depuis longtemps. Et un réseau est tout à fait capable de traiter des données hétérogènes, ce qui compte c'est l'architecture.
Si un MLP peut résoudre une tâche, quelle différence cela fait-il qu'il soit à jour ou non ? En particulier avec les MLP, vous n'avez pas à faire beaucoup d'efforts - il y a tout pour elles presque partout.
 
Aleksey Terentev:

Essayez de dupliquer la couche d'entrée.

thème, et mélangez les poids :)
 
Yuriy Asaulenko:
Si les MLP peuvent résoudre un problème, quelle différence cela fait-il qu'elles soient pertinentes ou non ? Surtout avec les MLP, vous ne devez pas vous fatiguer - il y a tout pour elles pratiquement partout.

Je n'essaie pas de vous faire plier à quoi que ce soit. L'étude approfondie commence par les MLP.
Mais lorsqu'il s'agit de la représentation des données à l'intérieur d'un réseau, de leur déplacement et de leur transformation, les questions d'activation, de couches récurrentes, de régularisation, de combinaison de couches, etc. sont naturellement évoquées. Ça, c'est de l'apprentissage profond.

En outre, il y a tout et partout pour l'apprentissage profond. =)
 
Yuriy Asaulenko:
Si les MLP peuvent résoudre un problème, quelle différence cela fait-il qu'elles soient pertinentes ou non ? Surtout avec les MLP, vous n'avez pas à vous fatiguer - il y a tout pour elles pratiquement partout.
C'est juste qu'en profondeur on peut apprendre beaucoup plus vite, toutes choses égales par ailleurs... pas 10 heures mais 5 minutes, par exemple :)
 
Aleksey Terentev:

Eh bien, je ne vous incline à rien. L'apprentissage profond ne commence qu'avec les MLP.
Mais lorsqu'il s'agit de représenter les données à l'intérieur du réseau, de les déplacer et de les transformer, les questions d'activation, de couches récurrentes, de régularisation, de combinaison de couches, etc. sont naturellement soulevées. C'est un apprentissage profond.

Je comprends, mais je parle d'autre chose. Vous n'avez pas besoin de mathématiques supérieures pour le problème des deux tuyaux, juste de l'arithmétique. Que l'arithmétique soit pertinente ou non est une autre question.

C'est-à-dire que vous devez d'abord définir le problème et ensuite choisir les méthodes de solution.

Pour ce qui est des tâches importantes et compliquées de DM - DL, MLP, le stade est certainement dépassé depuis longtemps.

 
Maxim Dmitrievsky:
C'est juste que le profond peut apprendre beaucoup plus vite encore, toutes choses égales par ailleurs... pas 10 heures mais 5 minutes, par exemple :)
Je ne peux pas l'affirmer, mais il me semble que ce sont des illusions. Juste pour des considérations générales.