L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1183
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Moi, si, parce que je suis sur le sujet depuis longtemps ;)
Je n'ai pas besoin d'un graal, mais un STA utilisable serait utile.
cela serait très stable avec le MO - il faut faire des analyses statistiques et chercher des modèles soi-même, puis les adapter, et avec beaucoup de chance, cela fonctionnera pendant une période relativement longue.
Pour le reste (ma propre pratique, je ne sais pas pour les autres), il s'agit de se recycler en permanence avec les données les plus récentes et de faire de bonnes affaires, tout en faisant des bénéfices, en contrôlant tout quotidiennement. Si l'on part du principe que l'intelligence artificielle doit tout rechercher par elle-même, parce que faire constamment des analyses statistiques est aussi une tâche lourde. Il est préférable de lancer l'optimiseur quelques dizaines de fois et il se trouvera tout seul.
En fin de compte, tout se résume à contrôler la qualité du modèle sur l'échantillon test, c'est tout. L'échantillon de formation est presque toujours bon comme il est. Vous n'avez même pas besoin de visualiser quoi que ce soit pour cela. Comment contrôler et sous-échantillonner est un artComodo Internet Security et rien ne s'est passé depuis des années.
Pour que le MO soit stable, il faut faire des analyses statistiques et chercher soi-même des modèles, puis s'y fixer, et si l'on a beaucoup de chance, cela fonctionnera pendant une période relativement longue.
Pour le reste (ma propre pratique, je ne sais pas pour les autres), il s'agit de se recycler en permanence avec les données les plus récentes et de faire de bonnes affaires, tout en faisant des bénéfices, en contrôlant tout quotidiennement. Si l'on part du principe que l'intelligence artificielle doit tout rechercher par elle-même, parce que faire constamment des statanalyses est aussi une tâche fastidieuse. Il est préférable de lancer l'optimiseur quelques dizaines de fois et il se trouvera tout seul.
merci, mais ce n'est pas le navigateur, c'est Windows, le pare-feu bloque tout, n'importe quel navigateur fonctionne pendant environ 10 minutes, puis zap ! et n'ouvre rien d'autre .... Windows a planté, je rentre à la maison dans 15 minutes pour restaurer à partir d'une clé USB via acronix backup, heureusement je sauvegarde toujours toutes les nouvelles installations.
je sais, je le fais moi-même quand j'ai le temps, mais ce n'est pas intéressant (((, comme dans les films cools....)) presse.... les lettres ont traversé l'ordinateur portable.... et ensuite les ânes ont confirmé !!! .... la chose principale qu'alors l'ALARME-ALARME n'a pas commencé ))))
La loi de Murphy : si une merde peut arriver, elle arrivera.
Je le fais moi-même quand j'ai le temps, mais ce n'est pas intéressant (((, je veux que ce soit comme dans les films cool..... le bouton enfoncé.... les lettres ont traversé l'ordinateur portable.... et ensuite les ânes ont confirmé !!! .... la chose principale qu'alors l'ALARME-ALARME n'a pas commencé ))))
Je ne pense pas.
J'ai simplifié encore plus la tâche des NS. Une stratégie préliminaire est développée, elle définit des intervalles d'entrées possibles, le NS est entraîné sur ces intervalles et trouve les points d'entrée optimaux. S'il n'y a pas d'entrée à l'intervalle, il ne la trouve pas.
En dehors de ces intervalles, le SN n'analyse rien.
Je ne pense pas.
J'ai simplifié encore plus la tâche des NS. Une stratégie préliminaire est développée, elle définit des intervalles d'entrées possibles, le NS est entraîné sur ces intervalles et trouve les points d'entrée optimaux. S'il n'y a pas d'entrée à l'intervalle, il ne la trouve pas.
En dehors de ces intervalles, le SN n'analyse rien.
Les NS ne trouveront pas les meilleurs points d'entrée, ils doivent utiliser la force brute.
Le NS ne trouvera pas de points d'entrée optimaux, il faut les forcer brutalement.
Maxim, cela a déjà été fait il y a un an. Et a écrit comment, dans ce fil.
Mais je ne peux pas penser à quelque chose de nouveau. Je m'amuse encore avec Python, peut-être que des idées me viendront.
Le NS ne trouvera pas les points d'entrée optimaux, ils doivent être forcés brutalement.
Essayez également de désactiver la création intrusive par CatBoost de ses propres répertoires temporaires à chaque démarrage, car cela provoque son plantage dans un environnement protégé.
En général, ces glitches il semble en quelque sorte pas très professionnel, donc si vous ne pouvez pas les battre, puis personnellement à mon avis, moins cher que libre - de ce produit à abandonner à la fois :)
Des répertoires sont-ils créés lors de l'utilisation de python ? En console il est logique que des répertoires soient créés car en eux à la fois modèle et balisage, et aussi d'autres données statistiques où les mettre sinon dans un répertoire ? Au contraire, je pense que les répertoires sont une très bonne solution, car je peux passer en revue de nombreux paramètres et placer les résultats de chacun dans mon répertoire.
Jusqu'à présent, je n'ai pas vu de problèmes entraînant des dysfonctionnements.
Au fait, je ne sais pas à qui m'adresser, pouvez-vous me dire
quand on utilise l'ACP, alglib renvoie les vecteurs propres
la manière de les retravailler, c'est-à-dire de les appliquer aux caractéristiques originales.
http://alglib.sources.ru/dataanalysis/principalcomponentsanalysis.phpLimites d'applicabilité et d'efficacité de la méthode
d'après ce que je comprends de cette méthode, nous obtenons une carte des caractéristiques du signal utile en isolant les principales composantes, et vous pouvez ensuite chercher une carte similaire (matrice) pour rechercher un signal utile dans des données bruyantes.
en fin de compte, tout se résume au contrôle de la qualité du modèle sur l'échantillon d'essai, c'est tout. Sur l'échantillon d'entraînement, c'est presque toujours bon comme ça. Vous n'avez même pas besoin de visualiser quoi que ce soit pour cela. Comment contrôler et sous-échantillonner est un art
Je pense simplement que l'échantillon de contrôle peut être très différent de celui sur lequel vous vous êtes entraîné. Par exemple, j'ai un arbre qui a 10 feuilles entraînées, dont 9 donnent 1, et une donne zéro, qui fonctionnent bien sur un échantillon particulier, mais ensuite le test (test dans mon cas) ne fonctionne pas - que s'est-il passé ? Ou bien il se pourrait que les conditions n'aient été réunies que pour 3 des 9 feuilles et que les autres aient toutes fusionné à zéro. Cela ne serait pas un signe de sur-entraînement (qui implique des connexions redondantes qui ne sont pas des régularités), mais simplement soit un échantillon complètement différent, soit un échantillon où il y a vraiment beaucoup d'événements pour 3 feuilles, et très peu pour les 6 feuilles restantes, soit nous avons entraîné sur des tendances, et testé sur un plat. Je me demande si nous ne devrions pas mélanger l'échantillon et créer des conditions artificielles, où tant dans la formation que dans les tests, il y aura des parties du marché proportionnellement similaires, et si oui, nous devrions d'une manière ou d'une autre identifier ces parties et les marquer, alors nous pourrons voir quelles réponses dans la formation et quelles réponses dans l'échantillon de test. Ou bien nous devons rechercher de telles régularités qui sont typiques de tous les marchés et les décrire de manière universelle afin d'augmenter le nombre de situations différentes dans l'échantillon d'entraînement.