L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 629
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Maxim, eh bien, n'entraîne pas le réseau dans l'optimiseur MT. L'entraîneur NS et l'optimiseur sont des algorithmes complètement différents avec des critères d'optimalité complètement différents.
Si vous utilisez toujours cette structure NS, que vous avez dessinée auparavant, alors elle est un peu simple - faible pour le marché. J'ai déjà écrit que je n'ai réussi que lorsque j'ai atteint la structure 15-20-15-10-5-1. Et ceci pour un seul type de métiers. J'ai également fait absolument tout en utilisant les méthodes décrites par Haikin, c'est-à-dire rien de nouveau, pas d'astuces.
Les structures plus simples étaient mal formées.
Avez-vous essayé de prendre non pas le nombre de couches mais le nombre de neurones dans une couche ? Par exemple 15-200-1 ou 15-200-20-1 ?
En fait, les données nécessaires à la formation ne sont pas nombreuses, mais très nombreuses. Sur un échantillon de petite taille, NS n'obtiendra rien d'utile.
Et combien de données prenez-vous ? Je prends 86000 cordes pour la formation.
1) Avez-vous essayé de prendre non pas le nombre de couches, mais le nombre de neurones dans une couche ? Par exemple 15-200-1 ou 15-200-20-1 ?
2) Et combien de données prenez-vous ? Je prenais 86000 lignes pour la formation.
1. Je ne l'ai pas essayé. 20 dans la première couche est tout à fait suffisant. En augmentant à la fois les neurones par couche et les couches.
2. J'avais environ 12000 lignes dans la formation avec un brassage intermédiaire entre N époques. Après quelques époques, les données de formation ont été remplacées par d'autres données qui n'avaient pas été impliquées dans la formation auparavant.
Je m'excuse pour l'insulte, mais vous devriez relire votre message. Cela semble plutôt ambigu.
C'est la même chose. Les MLP ne sont plus pertinents depuis longtemps, l'apprentissage profond est à la mode depuis longtemps. Et un réseau est tout à fait capable de traiter des données hétérogènes, l'essentiel étant l'architecture.Et en général, vous avez raison, mais seulement en ce qui concerne la première couche du réseau neuronal. Si le retour d'information va vers la deuxième couche et les couches suivantes ou, en général, vers des couches de réseau parallèles, votre affirmation deviendra invalide.
Dans ce cas, Maxim doit penser à approfondir le réseau et à apporter du feedback aux couches cachées.
Et qu'en est-il :
Je suis d'accord, mais comment combiner la profondeur avec tous ces trucs qui sont apparus :) dans l'optimiseur sera un peu long à apprendre ... mais très, très haute qualité, parce que là et le commerce se produit à la fois
Je pense que plus de 30 poids n'est pas une option pour l'optimiseur.
+ Beaucoup de gens oublient qu'il y a un nuage, qui est généralement cool pour travailler avec toutes ces choses, mais il faut être très bon pour optimiser le code.
Je suis d'accord, mais comment combiner la profondeur avec tous ces trucs qui sont apparus :) dans l'optimiseur sera un peu long à apprendre ... mais très, très haute qualité, parce que là et le commerce se produit à la fois
Je pense que plus de 30 poids n'est pas une option pour l'optimiseur.
+ Je pense que beaucoup de gens oublient qu'il y a un nuage, à travers lequel toutes ces choses sont amusantes à travailler, mais il faut très bien optimiser le code.
Essayez de dupliquer la couche d'entrée.
C'est la même chose. Les MLP ne sont plus d'actualité, l'apprentissage profond est à la mode depuis longtemps. Et un réseau est tout à fait capable de traiter des données hétérogènes, ce qui compte c'est l'architecture.Essayez de dupliquer la couche d'entrée.
Si les MLP peuvent résoudre un problème, quelle différence cela fait-il qu'elles soient pertinentes ou non ? Surtout avec les MLP, vous ne devez pas vous fatiguer - il y a tout pour elles pratiquement partout.
Je n'essaie pas de vous faire plier à quoi que ce soit. L'étude approfondie commence par les MLP.
En outre, il y a tout et partout pour l'apprentissage profond. =)Mais lorsqu'il s'agit de la représentation des données à l'intérieur d'un réseau, de leur déplacement et de leur transformation, les questions d'activation, de couches récurrentes, de régularisation, de combinaison de couches, etc. sont naturellement évoquées. Ça, c'est de l'apprentissage profond.
Si les MLP peuvent résoudre un problème, quelle différence cela fait-il qu'elles soient pertinentes ou non ? Surtout avec les MLP, vous n'avez pas à vous fatiguer - il y a tout pour elles pratiquement partout.
Eh bien, je ne vous incline à rien. L'apprentissage profond ne commence qu'avec les MLP.
Mais lorsqu'il s'agit de représenter les données à l'intérieur du réseau, de les déplacer et de les transformer, les questions d'activation, de couches récurrentes, de régularisation, de combinaison de couches, etc. sont naturellement soulevées. C'est un apprentissage profond.
Je comprends, mais je parle d'autre chose. Vous n'avez pas besoin de mathématiques supérieures pour le problème des deux tuyaux, juste de l'arithmétique. Que l'arithmétique soit pertinente ou non est une autre question.
C'est-à-dire que vous devez d'abord définir le problème et ensuite choisir les méthodes de solution.
Pour ce qui est des tâches importantes et compliquées de DM - DL, MLP, le stade est certainement dépassé depuis longtemps.
C'est juste que le profond peut apprendre beaucoup plus vite encore, toutes choses égales par ailleurs... pas 10 heures mais 5 minutes, par exemple :)