L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1329

 
Yuriy Asaulenko:

Vous pouvez faire de même sans professeur. Je ne vois pas de différence.

Imaginez un tas de neurones apprenant et résolvant un problème qui est résolu par deux ou trois énoncés "si"... Le cerveau du NS est juste plein de cette merde, et au lieu de penser à la belle....)).

J'ai compris, cela s'appelle la connaissance a priori, l'expertise intégrée, mais vous ne la recoupez pas avec un modèle parce que vous êtes sûr à 100%.

Je n'ai aucune connaissance d'un processus aléatoire, sauf qu'il est aléatoire et quelques autres croyances mineures.
 
Maxim Dmitrievsky:

J'ai compris, cela s'appelle une connaissance a priori, un jugement d'expert intégré, mais vous ne le vérifiez pas avec un modèle parce que vous êtes sûr à 100%.

Oui, c'est exactement ça. C'est pratiquement axiomatique - pourquoi le vérifier. Nous connaissons a priori une partie de la solution - ne méditons-nous pas sur le marché pour rien).

 
Maxim Dmitrievsky:

Encore une fois, nous parlons d'approches différentes

Vous enseignez avec un professeur parce que vous commencez depuis le début, j'enseigne sans professeur.

Je m'en souviens. Des approches différentes, bien sûr. Encore une fois, dans ce cas (avec un enseignant), je ne vois pas de contre-indication. Tout est faisable, si le désir, s'il apparaît bien sûr.

Sauf si vous avez RNN sans un professeur, ici tout est plus compliqué, et juste ne sais pas, je n'ai pas utilisé. Au fait, qu'utilisez-vous ? J'aurais pu le dire, mais en creusant le sujet...

 
Yuriy Asaulenko:

Je m'en souviens. Des approches différentes, bien sûr. Encore une fois, je ne vois pas de contradictions dans tout cela (avec un professeur). Tout est faisable, si vous en avez la volonté, bien sûr.

Sauf si vous avez RNN sans un professeur, ici tout est plus compliqué, et juste ne sais pas, je n'ai pas utilisé. Au fait, qu'utilisez-vous ? J'aurais pu le dire, mais en creusant le sujet...

beaucoup de choses, pas encore assez de RNN ;)) je le ferai plus tard

il y a quelques articles sur les bases, mais ils ont naturellement évolué

 
Maxim Dmitrievsky:

J'ai beaucoup de choses, je n'en ai pas encore assez ;) Je le ferai plus tard.

il y a des articles sur les bases, mais bien sûr, je suis déjà allé plus loin que ça.

A un carrefour - vous allez à droite... etc. Tensorflow, très bonne fonctionnalité, mais ils disent très lourd. J'ai seulement lu les documents jusqu'à présent. Non utilisé ?

 
Yuriy Asaulenko:

A un carrefour, on va à droite... etc. Tensorflow, très bonne fonctionnalité, mais réputé très lourd. Je n'ai lu que la documentation pour l'instant. Vous ne l'avez pas utilisé ?

tf est de bas niveau, il est placé au-dessus de theano, utilisez tf.theano, c'est plus simple.

J'ai vu différents exemples, mais je n'ai pas encore fait de développement.

la version 2 est en route, déjà disponible sur le site, elle simplifie la création de modèles
 
Maxim Dmitrievsky:

tf est un bas niveau, au-dessus de theano, en utilisant tf.theano, alors tout est plus facile

J'ai examiné différents exemples, mais je n'ai encore rien développé.

En termes de vitesse. Je pense que je vais m'arrêter à scikit-learn pour le moment, CHEZ. Les MLP ne sont pas mauvaises là.

 
Yuriy Asaulenko:

En termes de vitesse. Je pense que je vais rester avec scikit-learn pour le moment, CHEZ. Les MLP ne sont pas mauvaises là.

Je ne sais pas, je ne pense pas.

il y a beaucoup de paquets sur le marché, j'essaie d'apprendre seulement les plus populaires et les plus évolutifs.

sklearn est un méli-mélo de trucs.

tf est plus un constructeur de votre propre architecture.

 
Yuriy Asaulenko:

Les NS n'aiment pas vraiment le changement d'échelle. Il est formé dans la fourchette de prix de 100-120, si le prix sort de la fourchette, c'est fini, on abandonne. Je divise simplement tout ce qui est lié au prix par le prix lui-même, je soustrais un, puis j'utilise des coefficients pour amener les variables dans la gamme dynamique souhaitée.

Dans les deux cas, nous devons donc prétraiter les données pour obtenir une métrique acceptable. J'utilise mon ATR du TF supérieur et le positionnement du prix dans celui-ci. J'obtiens des dominos avec des encoches par niveaux, le prix se voit attribuer un numéro de niveau Fibonacci.

 

Fini de traiter les modèles, semences 201 à 401 - tout le reste est inchangé.

Tableau des résultats de l'estimation de la balance

Tableau avec indicateurs métriques

Tableau avec le nombre de modèles répondant aux critères de sélection dans l'échantillon indépendant


Tableau avec le nombre de modèles correspondant au critère de sélection dans les trois échantillons

Graphiques de modèles (surtout des gifs)

30%

40%

50%

60%

La tendance semble rester inchangée pour toutes les mesures. Voici les tableaux delta - tels quels, pour comparer les changements.

Pour les indicateurs métriques, la différence est minime.

Les données recueillies nous permettent de conclure que la tendance est généralement restée la même.

Ce qui m'intrigue le plus, c'est une autre question : pourquoi les graphiques sont-ils très similaires pour différents modèles sur différents échantillons ? Il semble que le modèle parvienne à attraper un certain modèle apparent qui apparaît avec une périodicité fréquente et à différentes tailles d'échantillon (au moins ce morceau est constamment dans la fenêtre), et c'est ce modèle que le modèle exploite.

Pour ma part, j'ai conclu qu'il est tout à fait possible d'allouer 30 à 70 % de l'échantillon de toutes les données en faveur d'un graphique de validation à la recherche de modèles intéressants, mais il semble que 30 % soit encore optimal.