L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 610
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Le paramètre seed = NULL est présent par défaut dans la fonction darch(). Donnez-lui une valeur quelconque, par exemple seed = 12345.
Il s'agit d'une petite valeur de learnRate. Commencez avec learnRate = 0.7, numEpochs = 10 pour RBM et NN. Mais ce sont des données de plafond. Vous devez optimiser pour un ensemble de données spécifique.
Bonne chance
Et si l'on veut faire un ensemble, alors il vaut mieux supprimer set.seed(), non ? Pour que les grilles soient différentes. Ou set.seed(N mesh) - pour la reproductibilité de l'ensemble.
Oui, c'est vrai. Un ensemble de modèles aussi complexes (je veux dire darch) ne peut contenir plus de 3-5 pièces. Et ils doivent être très différents. C'est-à-dire qu'ils doivent avoir des valeurs différentes des paramètres (nombre de couches, de neurones, de fonctions d'activation, etc.), ou (beaucoup d'autres variantes que je ne décrirai pas maintenant). Une variante d'ensemble de la même structure entraînée avec une initialisation différente peut être possible, mais elle est faible. Faites au moins en sorte que le type d'initialisation soit différent.
Bonne chance
Oui, c'est vrai. Un ensemble de modèles aussi complexes (je veux dire darch) ne peut contenir plus de 3-5 pièces. Et ils doivent être très différents. C'est-à-dire qu'ils doivent avoir des valeurs différentes des paramètres (nombre de couches, de neurones, de fonctions d'activation, etc.), ou (beaucoup d'autres variantes que je ne décrirai pas maintenant). Une variante d'ensemble de la même structure entraînée avec une initialisation différente peut être possible, mais elle est faible. Faites au moins en sorte que le type d'initialisation soit différent.
Bonne chance
Si vous traitez un ensemble d'entraînements sur les mêmes données pour définir la meilleure structure, il est préférable de placer les résultats dans un ensemble. Si vous voulez utiliser l'option la plus simple - mailler avec un intervalle de neurones de 5 ou de pourcentage (avec cet intervalle, les modèles seront très bons), puis prendre 3-5 ou 10 meilleurs résultats et faire la moyenne par ces résultats. Les modèles seront construits et calculés de toute façon, alors pourquoi gaspiller nos efforts ? ))
Si nous devons soumettre le CPU à un grand nombre d'entraînements sur les mêmes données pour déterminer la meilleure structure, il est préférable de placer les résultats dans un ensemble. Si l'on prend l'option la plus simple - une grille avec un espacement des neurones de 5 ou de pourcentage (avec un tel espacement, les modèles seront également bien différents), on prend alors 3-5 ou 10 meilleurs résultats et on les utilise pour faire la moyenne. Les modèles seront construits et calculés de toute façon, alors pourquoi gaspiller nos efforts ? ))
comment vous en sortez-vous en général avec ces modèles ? cela vaut-il la peine de s'y mettre ? :) la discussion est en cours mais personne ne parle des résultats
Peut-être quelques bancs par rapport à perseptrone ou gbm. Pour le forex, bien sûr.
:) car il y a une discussion mais personne n'annonce les résultats.
comment vous en sortez-vous en général avec ces modèles ? cela vaut-il la peine de s'y mettre ? :) la discussion est en cours mais personne n'exprime les résultats
J'ai, comme la plupart des gens, une erreur qui frôle les 50%. Mais au moins, il compte dix fois plus vite qu'Alglib. Si ici il faut 40-100 minutes pour calculer le modèle, j'ai attendu plus de vingt-quatre heures pour la même structure sur Alglib, je n'ai pas attendu et j'ai désactivé le calcul.
Mais si je dois maintenant reprendre des modèles dans le cycle, cela va encore prendre beaucoup de temps..... Je dois aussi programmer l'ensemble.
En général, il s'agit d'une longue période, car vous ne vous imposez pas de limites de temps sur le MO.
Intéressant - donc je creuse)
Si vous considérez un tableau des bénéfices comme un résultat, il n'y aura aucun résultat. Et la plupart des gens, même dans ce fil de discussion, n'ont besoin que du graphique des bénéfices. La seule preuve est que nous ne comprenons tout simplement pas les autres.
Ce n'est pas comme si vous étiez impliqué dans l'arrière-pays.
Sur le site de test, comme dans la plupart des cas, l'erreur est de l'ordre de 50%. Mais au moins, il compte des dizaines de fois plus vite qu'Alglib. Si ici pendant 40-100 minutes pour calculer le modèle, l'Alglib-e plus d'un jour d'attente pour la même structure, pas attendu et désactivé le calcul.
Mais si je dois maintenant reprendre des modèles dans le cycle, cela va encore prendre beaucoup de temps..... Vous devez également le programmer.
Je veux dire, le choix des traits est toujours le problème principal :) mais au moins c'est plus rapide à apprendre, et c'est une bonne chose.
c'est-à-dire que le choix des attributs reste le principal problème :)
et les caractéristiques et la structure du modèle s'avèrent être trop
1. De quelle optimisation parlez-vous ? Quel plateau ? Quel modèle ? Si vous parlez d'un réseau neuronal, il serait étrange de ne pas entraîner (optimiser les paramètres) le DNN avant de l'utiliser.
2. Quels paramètres du modèle ( ?) devraient être stables ?
Je ne comprends pas vos pensées.
Je parlais de l'optimisation des hyperparamètres du DNN qui doit être faite nécessairement et non dans le testeur.
De quoi parlez-vous ?
L'efficacité du modèle commecritère d'optimisation pour tout le reste.
Quel genre de plateau ?
Le plateau d'efficacité.
Quel modèle ?
N'importe quel modèle.
Si vous parlez d'un réseau neuronal, il serait étrange de ne pas entraîner (optimiser les paramètres) le DNN avant de l'utiliser.
Et c'est la question principale, que je vous ai déjà posée : comment les résultats de l'entraînement (optimisation des paramètres) dépendent de la non-stationnarité des prédicteurs d'entrée. Votre réponse a été la suivante : ce n'est pas le cas. Ce n'est pas clair pour moi, car les SN doivent être constamment réentraînés, donc ils réagissent à la non-stationnarité, donc les paramètres du modèle sont des variables aléatoires, donc il y a un problème de stationnarité des paramètres. C'est donc l'image complète de tout ce qui est abordé dans GARCH mais qui, pour une raison quelconque, n'est pas abordé dans la classification.