L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 77
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Très bon résultat pour R, si l'on considère que tous les autres langages sont utilisés à des fins très diverses et que R ne sert qu'à la manipulation des données.
Avez-vous essayé de vous entraîner sur mes données ?
J'ai commencé une expérience de 5 jours. Je ne fais que torturer l'EURUSD !
J'ai fait 99 échantillons d'entraînement de la taille que j'ai postée ici. Toutes sont uniques car elles contiennent des observations fondées sur le temps. Je suis en train de former des modèles sur eux et je ferai un comité des forêts GBM. J'ai déjà quelques résultats intéressants sur la validation, bien que je n'aie examiné que 18 échantillons en 24 heures. Cela dit, j'ai fait 2,5 fois la validation et je vous montrerai pourquoi plus tard !
Comme vous pouvez le voir, dans le tout premier échantillon d'entraînement, le modèle a été entraîné de telle sorte que sur 400 K observations en validation, j'ai obtenu MO 2,7 points (y compris l'écart).
Eh bien, il y a encore des résultats de 1, 1,5 points, normal. Tout cela sera empilé en commission plus tard et voyons ce que l'image sera finalement sur la validation ! Je prévois une note de 4 ou 4+ pour les devoirs.
Allez-y, messieurs.
PS : données de formation - 99 échantillons pour la diversification et le comité : https://drive.google.com/open?id=0B_Au3ANgcG7CNG5JT3R2UzI0UzQ
Oui, j'ai essayé, ça n'a pas marché la première fois. Pour estimer le modèle, j'ai pris la précision du résultat de la régression (résultat requis mis à l'échelle dans [0;0.5;1] moins le résultat obtenu, modulo). La génétique a trouvé un tel maximum global avec un couple de prédicteurs, lorsque le neuronke ne dispose pas de suffisamment de données pour l'entraînement, de sorte qu'il renvoie 0,5 sur presque toutes les données (correspondant à la classe "do not trade"). En général, une telle fonction de mise en forme ne convient pas du tout, car le réseau ne fonctionne pas.
La deuxième expérience est toujours en cours. J'utilise toujours 3 classes mais j'arrondis immédiatement le résultat de la régression aux niveaux [0;0.5;1]. L'estimation est la précision de la classification ([nombre de bonnes réponses] / [nombre total]). D'après le graphique des meilleures valeurs de fitness en génétique, je peux juger que le résultat sera proche de 33%, essentiellement le même qu'au hasard. Peut-être un peu plus si vous avez de la chance. Je dois attendre encore un jour ou deux jusqu'à ce que la génétique n'atteigne pas son maximum, puis je peux faire le fronttest.
Avec mes prédicteurs, j'ai généralement de meilleurs résultats. Je pense que vous devez ajouter plus d'indicateurs à ces données. Si votre algorithme peut évaluer et écarter les prédicteurs, plus vous ajoutez d'indicateurs au départ, mieux c'est.
Oui, j'ai essayé, ça n'a pas marché la première fois. Pour estimer le modèle, j'ai pris la précision du résultat de la régression (résultat requis mis à l'échelle dans [0;0.5;1] moins le résultat obtenu, modulo). La génétique a trouvé un tel maximum global avec un couple de prédicteurs, lorsque le neuronke ne dispose pas de suffisamment de données pour l'entraînement, il renvoie donc 0,5 sur presque toutes les données (correspondant à la classe "do not trade"). En général, une telle fonction d'adaptation ne convient pas du tout, le réseau n'est tout simplement pas commercialisé.
La deuxième expérience est toujours en cours. J'utilise toujours 3 classes mais j'arrondis immédiatement le résultat de la régression aux niveaux [0;0.5;1]. L'estimation est la précision de la classification ([nombre de bonnes réponses] / [nombre total]). D'après le graphique des meilleures valeurs de fitness en génétique, je peux juger que le résultat sera proche de 33%, essentiellement le même qu'au hasard. Peut-être un peu plus si vous avez de la chance. Je dois attendre encore un jour ou deux jusqu'à ce que la génétique soit à son maximum, puis je pourrai faire le fronttest.
Avec mes prédicteurs, j'obtiens généralement de meilleurs résultats. Je pense que vous devez ajouter plus d'indicateurs à ces données. Si votre algorithme peut évaluer et écarter les prédicteurs, plus vous ajoutez d'indicateurs au départ, mieux c'est.
Toujours en quête du graal ???? Allez, ......
Toujours en train d'essayer de construire un graal ???? Allez, ......
Nah, non les gars, le système a disparu, il n'y a même pas de raison de le montrer. Excuses..... En ce qui concerne le traité de classification, oui... peut... mais pas encore le temps, dès que je serai libre et que ma créativité m'envahira, j'écrirai à ce sujet...... Otherwise.....
Je me demande... N'avez-vous pas écrit que vous utilisez votre algorithme avec succès depuis un an ? Il y a quelques heures, vous avez écrit "J'essaie toujours de construire un graal????. Allez......" ce qui implique que l'algorithme fonctionnait il y a quelques heures et qu'il a ensuite disparu ???????????????????? Cela ne donne aucun sens à votre histoire. ....
Ecoutez, si vous avez quelque chose à me dire, alors envoyez-moi un MP, parce que j'ai fait la même chose que vous, le sujet m'intéresse.
Il y a eu des messages dans le fil de discussion sur RNeat, qui est un neurone à topologie adaptative, où les poids et les connexions des neurones sont formés à l'aide de la génétique.
A en juger par la description et les tests simples, le modèle est assez bon. Mais ce n'est pas aussi bon pour le forex. Pendant une semaine, j'ai fait tourner une formation qui prédisait l'achat ou la vente sur la prochaine barre avec 400 prédicteurs.
Le modèle d'apprentissage est trop lent, en une semaine la fitness du modèle a presque augmenté à seulement 2%. La précision des prédictions, même sur les données d'entraînement, n'est que de 55 %. Le modèle n'a pas eu le temps d'évoluer vers une bonne logique pour commencer à générer des bénéfices.
La précision sur les données de validation (barres aléatoires prises dans les données d'entraînement) est un peu meilleure, mais c'est plus le fruit du hasard que le mérite du modèle.
La précision du test frontal fluctue entre 50% et 53% et, à en juger par le graphique, c'est également accidentel et non dû au modèle.
Aucun miracle ne s'est produit, je suppose que le modèle va évoluer vers la bonne logique pendant des mois de travail, mais il va se recycler avec de mauvais résultats lors de la validation et à ce moment-là, il sera dépassé et je devrai tout recommencer.
J'arrête l'expérience, je ne vois pas l'intérêt de continuer.