L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 4
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
NS a très bien fait.
Random Forest ne pouvait pas gérer une telle tâche, où l'interaction d'un ensemble de variables. Et la signification individuelle de chaque prédicteur était intentionnellement nulle.
Je ne vois pas de preuve que NS a réussi quoi que ce soit.
Le sur-apprentissage est un mal mondial en science et en particulier dans la construction de modèles.
Une erreur est donc nécessaire pour trois ensembles :
Les deux dernières séries ne sont pas mélangées lorsqu'elles arrivent dans le terminal, les bases derrière le bar.
Il devrait y avoir à peu près la même erreur sur les trois ensembles. En même temps, vous devez fixer l'ensemble des prédicteurs que vous prenez lors de la formation du modèle.
Random Forest ne pouvait pas gérer un tel problème, où l'interaction d'un ensemble de variables. Et la signification individuelle de chaque prédicteur était intentionnellement nulle.
Votre idée de tenir compte de l'interaction entre les prédicteurs est une révolution dans les statistiques. Jusqu'à présent, je pensais que l'interaction entre les prédicteurs était un mal. Non seulement les prédicteurs eux-mêmes sont généralement non stationnaires, mais nous essayons également de rendre compte des relations entre ces processus aléatoires non stationnaires.
En apprentissage automatique, il est considéré comme obligatoire de se débarrasser des variables en interaction. De plus, des algorithmes très efficaces sont disponibles, par exemple la méthode des composantes principales qui permet de se débarrasser de l'interaction et de convertir un ensemble de prédicteurs en interaction en un ensemble de prédicteurs indépendants.
Je ne vois aucune preuve que NS a fait face à quoi que ce soit.
Le sur-apprentissage est un mal mondial en science et en particulier dans la construction de modèles.
Une erreur est donc nécessaire pour trois ensembles :
Les deux dernières séries ne sont pas mélangées lorsqu'elles arrivent dans le terminal, les bases derrière le bar.
Il devrait y avoir à peu près la même erreur sur les trois ensembles. Cela dit, vous devrez fixer l'ensemble des prédicteurs que vous prenez lors de la formation du modèle.
Disons-le comme ça. Malgré le fait que cela ne fasse pas partie de la mission. J'établirai un échantillon de validation sur lequel j'exécuterai le modèle entraîné et mesurerai la précision de prédiction de la sortie.
Mais là encore, ce n'est pas nécessaire. Notez que j'ai réécrit la validation sur la base du modèle déduit.
Un modèle intégré dans les données :
Je ne vois aucune preuve que NS a fait face à quelque chose.
Neuronka a résolu ce problème, en attachant le journal avec le code de Rattle. Il y a quelques changements dans le code lors de l'appel de neuron - j'ai augmenté le nombre maximum d'itérations, et supprimé les connexions qui vont directement de l'entrée à la sortie, en contournant la couche intermédiaire (skip=TRUE). Parce que ces deux limites gâchent tout.
J'ai effectué la validation sur le nouveau fichier, les erreurs dans les deux cas sont presque nulles (il n'y a qu'une seule erreur lors de la validation à partir du deuxième fichier).
Mais comme le SN est comme une boîte noire, il n'y a aucun moyen de connaître la logique de la solution. Vous pouvez examiner les pondérations, déterminer la valeur absolue moyenne de chaque entrée et dessiner un diagramme. Et on saura que 1, 3, 5, 7, 9, 11 sont plus importants que les autres. Cependant, les autres entrées sont également utilisées pour une raison quelconque ; les poids nuls sont introuvables. En d'autres termes, il s'avère que l'apprentissage a lieu dans un premier temps, puis nous pouvons déterminer les intrants importants.
Neuronka a résolu ce problème, en attachant le journal avec le code de Rattle. Il y a quelques changements dans le code lors de l'appel de neuron - j'ai augmenté le nombre maximum d'itérations, et supprimé les connexions qui vont directement de l'entrée à la sortie, en contournant la couche intermédiaire (skip=TRUE). Parce que ces deux limites gâchent tout.
J'ai fait la validation sur le nouveau fichier, les erreurs dans les deux cas sont presque nulles (il n'y a qu'une seule erreur lors de la validation à partir du deuxième fichier).
Mais comme le SN est comme une boîte noire, il n'y a aucun moyen de connaître la logique de la solution. Vous pouvez regarder les poids, déterminer la valeur absolue moyenne de chaque entrée, et dessiner un diagramme. Et on saura que 1, 3, 5, 7, 9, 11 sont plus importants que les autres. Cependant, les autres entrées sont également utilisées pour une raison quelconque ; les poids nuls sont introuvables. En d'autres termes, c'est l'inverse qui se produit : nous apprenons d'abord, puis nous identifions les données importantes.
Je ne vois aucune preuve que NS a fait face à quoi que ce soit.
Le sur-apprentissage est un mal mondial en science et en particulier dans la construction de modèles.
Une erreur est donc nécessaire pour trois ensembles :
Les deux dernières séries ne sont pas mélangées lorsqu'elles arrivent dans le terminal, les bases derrière le bar.
Il devrait y avoir à peu près la même erreur sur les trois ensembles. Ce faisant, vous devrez fixer l'ensemble des prédicteurs que vous prenez lors de la formation du modèle.
L'évidence doit-elle être prouvée ? Pendant la formation, le poids des entrées contenant des données contradictoires a diminué, c'est-à-dire que nous pouvons dire que les données contradictoires entrantes sont bloquées.
Il n'y a pas de problème de recyclage dans ce cas, car le réseau formé n'est pas utilisé à d'autres fins.
La question est de savoir si une telle méthode en vaut la peine. N'est-ce pas un peu d'artillerie lourde.
La question est de savoir si une telle méthode est appropriée. L'artillerie n'est-elle pas un peu lourde ?
Vous pouvez essayer un autre moyen. Mais je pense que le remède correspond au problème.
Il fait le travail, et il le fait bien. Mais je me demande toujours s'il n'y a pas quelque chose de plus efficace et de plus simple.