L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1042

 
Dmitriy Skub:
Comme vous en avez assez de taper sur la glace, pensez au fait que les deux échelles prix/temps ne sont pas intrinsèquement linéaires. C'est le cas si vous l'abordez d'un point de vue purement algo-trading (sans comprendre le marché).

Le temps est ce avec quoi nous mesurons les processus périodiques. Le temps a peu de sens lorsqu'on mesure des processus dont l'occurrence est aléatoire.

L'échelle de temps aux petits intervalles (tic, "quantique") est non linéaire et aléatoire, il semble que pour les événements de la dimension du tic, le temps en tant que facteur significatif n'existe pas du tout.

Sur de grands intervalles, en raison de la superposition d'hétérogénéités quotidiennes, hebdomadaires, liées aux communiqués de presse et autres, l'échelle de temps peut être considérée comme plus proche de la linéarité et l'importance du temps augmente.

 
Grigoriy Chaunin:
Vous ne pouvez pas. Vérifiez les devises pour l'indice Hearst. Cela montre clairement le caractère aléatoire du marché. Et que peut-on faire dans un marché aléatoire ? Seulement Martin. Mais d'un autre côté, il existe des inefficacités sur le marché à différents moments de l'existence. Et ils gagnent de l'argent avec. Et ce n'est pas un hasard. C'est dans cette direction que les inefficacités doivent être recherchées. Je voudrais automatiser ce processus. Mais je ne sais pas par où commencer. Les réseaux neuronaux ne conviennent pas pour cela. Ils ont besoin de modèles prêts à l'emploi pour apprendre.

Et pourquoi ne pas s'appuyer sur ce qui existe et fonctionne manifestement, ce qui a sauvé notre plan de l'effondrement pendant des milliards d'années, et ce qui aide les algotraders à optimiser et à adapter leurs EA - l'inertie et la mémoire du marché?

Dans le fil suivant, dès le premier message, il est indiqué qu'aucune astuce ne peut détruire la tarification non-markovienne, bien que le reste de leur discussion, autour des distributions de tics et des diffusions entières, ne convienne peut-être qu'à la recherche de filtres pour les dataphids, mais nous sommes dans le thème du MO :)

Et les réseaux neuronaux, à mon avis, sont les plus appropriés pour cette tâche...

 

Yooooooooo.... Où a-t-on déjà vu qu'un fil de discussion est descendu en dessous de la première page ????? Oui.... vous le faites fonctionner... vous l'avez fait fonctionner. Mais je m'en sors bien et les résultats sont plutôt encourageants, tout cela grâce à une erreur involontaire :-)

C'était comme ça : ...... Par exemple...



Et maintenant c'est comme ça.... Quelqu'un peut-il dire si les données se sont améliorées ou non ? ? ???

Il y a vraiment beaucoup de questions. Comment interpréter le graphique des composantes principales ????? Toujours une question Ces deux séries de données sont prises sur la même période. L'objectif est le même, mais la sauvegarde des prédicteurs a été effectuée de deux manières différentes. Donc. Votre sortie statistes, cette tâche est juste pour vous !!!!!

Lequel des ensembles de données donnés est le meilleur ??? Le premier ou le second. Votre avis messieurs !!!!!

Et ensuite, je vous donnerai mon avis....... OK ???

 

Je n'ai pas pu lire les deux pages de ce fil.

Je vais juste donner mon avis. L'apprentissage automatique est donc un ensemble de statistiques sur un outil, une analyse et l'algorithme lui-même en fonction du résultat du travail effectué, mais... Il y a une note importante, aucun algorithme ne peut garantir que vous obtiendrez le résultat souhaité si toutes les conditions sont remplies, et cela signifie que peu importe la quantité de données que vous analysez et la complexité des algorithmes de prise de décision, il y aura toujours une probabilité du résultat attendu.

C'est la probabilité que vous négociez, et par conséquent, vous devez rechercher le résultat de plus fortes probabilités. Le marché lui-même est monotone, selon mon analyse (qui n'était pas précise pour les longs et les shorts), le marché pour un même intervalle de temps donne approximativement le même (49%/51% ou 51%/49%) nombre de trades rentables dans les deux sens.

Ainsi, l'algorithme de prise de décision devrait être basé sur la probabilité estimée la plus élevée (qualitative) du résultat, avec des filtres supplémentaires à votre discrétion.

 
Mihail Marchukajtes:

Yooooooooo.... Où a-t-on déjà vu qu'un fil de discussion est descendu en dessous de la première page ????? Oui.... vous le faites fonctionner... vous l'avez fait fonctionner. Mais je m'en sors bien et les résultats sont plutôt encourageants, tout cela grâce à une erreur involontaire :-)

C'était comme ça : ...... Par exemple...



Et maintenant c'est comme ça.... Quelqu'un peut-il dire si les données se sont améliorées ou non ? ? ???

Il y a vraiment beaucoup de questions. Comment interpréter le graphique des composantes principales ????? Toujours une question Ces deux séries de données sont prises sur la même période. L'objectif est le même, mais la sauvegarde des prédicteurs a été effectuée de deux manières différentes. Donc. Votre sortie statistes, cette tâche est juste pour vous !!!!!

Lequel des ensembles de données donnés est le meilleur ??? Le premier ou le second. Votre avis messieurs !!!!!

Et ensuite, je vous donnerai mon avis....... OK ???

Michaelo est arrivé au PCA... pourquoi, tes mains te démangent-elles ? )

le graphique des composantes principales doit être interprété sur une base orthogonale :D

les rouges sont des orthos prédicteurs et que signifient les chiffres ?

 
Maxim Dmitrievsky:

Michaelo est arrivé au PCA... pourquoi, tes mains te démangent-elles ? )

Le graphique des composantes principales doit être interprété dans une base orthogonale :D

Alors, lequel est le meilleur ?

 
Mihail Marchukajtes:

Alors, lequel est le meilleur ?

et bien le second, 55%.

 
Maxim Dmitrievsky:

le second, 55%.

Il n'y a pas de 55% dans le graphe des composantes principales(premier graphe). Le 55% est le graphique de regroupement où, dans les deux cas, les données représentent deux zones bien distinctes. L'un est meilleur que l'autre et revenons au premier graphique. Pourquoi celle du bas est-elle meilleure que celle du haut ? ? ???

Pour cela, il faut savoir comment les interpréter !!!!.

 
Mihail Marchukajtes:

Il n'y a pas de 55% dans le graphe des composantes principales(premier graphe). Le 55% est un graphique de regroupement où, dans les deux cas, les données représentent deux zones bien distinctes. L'un est meilleur que l'autre et revenons au premier graphique. Pourquoi celle du bas est-elle meilleure que celle du haut ? ? ???

Pour cela, il faut savoir comment les interpréter !!!!.

si les nombres sont des points alors la variance des 2 composantes est plus faible sur la seconde que sur la première, non ?

http://setosa.io/ev/principal-component-analysis/

Faites tourner les graphiques avec votre souris et lisez, vous aurez l'idée.

 
Maxim Dmitrievsky:

si les chiffres sont des points, alors la variance sur la deuxième composante est plus faible que sur la première, non ?

http://setosa.io/ev/principal-component-analysis/

Agréé !!!! Mais ce n'est pas tout... Il s'avère que le deuxième graphique est meilleur car il y a des vecteurs qui sont aussi proches que possible des axes zéro. Ce n'est pas si évident dans cet exemple, mais nous avons rencontré de tels ensembles de données où les vecteurs de composantes coïncident avec les axes zéro et divisent le champ en 4 carrés pairs. Dans le premier cas, les axes des composantes sont dispersés entre les zéros, tandis que dans le second, les vecteurs des composantes sont aussi proches que possible des zéros. Connaissant le nom du prédicteur, nous entraînons l'optimiseur tant que les entrées sont les prédicteurs qui forment le vecteur de composante le plus proche de l'axe zéro et peu importe dans quelle direction. Encore une fois, c'est mon IMHO !!! C'est pourquoi j'ai voulu clarifier à quel point j'ai raison. ! !!!