L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2539

 
Sceptorist #:

Mon opinion n'est qu'ouverte ou tics.

Eh bien, c'est une question d'opinion. En termes de certitude de temps, la proximité est la plus précise.

 

Et j'apprécierais que quelqu'un y réponde. Je viens de commencer à lire ce fil. J'en suis à environ 100 pages. Intéressant, grâce aux auteurs de la première période. C'est comme un journal intime. Erreurs, découvertes, déceptions, joies du succès, espoirs déçus... Un roman, dans le bon sens du terme. J'ai appris quelque chose de nouveau, je me suis souvenu de quelque chose de vieux, j'ai ri (non sans cela). La vie quotidienne d'un prospecteur telle qu'elle est. Ma question est simple : dans cet apprentissage automatique, la "machine" restera-t-elle une boîte noire ? Est-ce que nous lui avons fourni des données ou des informations et voulons obtenir une réponse ? Est-ce qu'ils ont examiné les "entrailles" de ce qu'ils font et comment ils cuisinent... ? Peut-être ont-ils essayé de traduire la machine dans le langage MQL qu'ils trouvent ici ?

Je vais probablement finir le fil, ça se passe bien jusqu'à présent, mais j'apprécierais les spoilers)

 
Andrei Trukhanovich #:

Eh bien, c'est une question d'opinion. En termes de certitude temporelle, close est la plus précise.

en termes d'incertitude dans le chandelier, nous connaissons soit le temps soit le prix exactement... pour la fermeture le temps, pour l'ouverture le prix :-)

au sens figuré, lorsque de 15.58 à 16.03 il n'y a pas de ticks (et c'est une situation normale, il y a des moments typiques de tels trous), alors la fermeture connaît l'heure de 16.00 mais le mauvais prix, et pour l'ouverture le mauvais temps est le prix correct/pertinent

 
Sceptorist #:

Et j'apprécierais que quelqu'un y réponde. Je viens de commencer à lire ce fil. J'en suis à environ 100 pages. Intéressant, grâce aux auteurs de la première période. C'est comme un journal intime. Erreurs, découvertes, déceptions, joies du succès, espoirs déçus... Un roman, dans le bon sens du terme. J'ai appris quelque chose de nouveau, je me suis souvenu de quelque chose de vieux, j'ai ri (non sans cela). La vie quotidienne d'un prospecteur telle qu'elle est. Ma question est simple : dans cet apprentissage automatique, la "machine" restera-t-elle une boîte noire ? Vous l'avez alimenté en intrants/précipitations et vous souhaitez obtenir une réponse pour la journée ? Vous avez examiné les "entrailles" de ce qu'il fait et comment il le fait cuire... ? Peut-être ont-ils essayé de traduire la machine dans le langage MQL qu'ils trouvent ici ?

Je vais probablement finir le fil, ça se passe bien jusqu'à présent, mais j'apprécierais quelques spoilers)

Pour atteindre l'illumination, commencez par une branche sur Onyx et ensuite seulement commencez celle-ci *sarcasme


Lire des livres

 

Je pense que la philosophie ici est simple :

(H+L)/Close. c'est-à-dire close. comme le plus juste (équilibre) au moment actuel( !), H/Close+L/Close, comme la somme des fractions dans l'intervalle de temps, avec un total de + ou - c'est-à-dire un résultat de momentum up/down... imho


Sceptorist #:

. Ma question est simple : dans cet apprentissage automatique, la "machine" restera-t-elle une boîte noire ? Vous lui fournissez des entrées/prédicats et vous voulez obtenir une réponse pour la journée ?

...et la réponse est assez simple.
Maxim Kuznetsov #:

En théorie, oui, mais où se trouve le vecteur de poids ou la transformation des coordonnées avant et arrière ?

Le MNC est une méthode presque universelle, que puis-je dire... Je veux dire, c'est abstrait, mais pour que ça marche, il faut la physique du processus...

.. VMNC - MNC pondéré (échelles, par exemple, de dispersion)... en général, il me semble que tout ce qui est brillant devrait être simple ...

Renat Akhtyamov #:

je ne sais pas ce qu'ils préparent

les prédicteurs de la MO probablement (les échelles sont impliquées)

Je soupçonne qu'ils créent une fonction comme

prix = a1*y1+a2*y2+...aN*yN

un tour de logique en principe

c'est intéressant ce qui va sortir

seulement si vous le décomposez en segments, vous devrez probablement multiplier chaque partie par quelque chose en rapport avec l'angle également.

polynomial - pour l'analyse multivariable (et votre formule - linéaire !!!) - au fait, le coefficient a de votre y [bien que x] soit l'angle) - ... pour un facteur unique - juste une équation typique de ligne droite (y=kx+bias)...

et c'est ici que commence la partie la plus intéressante de la différenciation - l'ordre du polynôme (=nombre de ses coudes-1 et propagation du signal du début de la formation à la fin) -- il ne faut certainement pas s'emballer, mais si la réalité est telle que dy/dx=a^3x (pas une dépendance linéaire) et plus. -- alors je ne pense pas qu'il y ait grand chose à faire ici -- prendre la dérivée de ce qui est là (je crois avoir vu quelque part des recommandations pour la différenciation en fonction des différences 1s et 2s => choisir le degré du polynôme -- je ne le trouve plus)... OU considérer le CDF et écarter les persentiles extrêmes... imho pour trouver la moyenne... OU de les exploiter comme signaux dans l'analyse de la déviation de la moyenne... imho... C'est ainsi que Maxim Dmitrievsky l'a formulé en termes de ML.

+ et le problème d'une pente amortie ou augmentée est toujours à l'ordre du jour aussi... Je suppose que c'est là qu'une pondération appropriée est utile.... Bien que la philosophie de la pondération puisse à nouveau être différente pour les partisans de la "liberté de choisir les poids"... Je déteste les combattants de la liberté en langue russe (ils commencent donc à déformer les corrélations réelles et les relations de cause à effet dans les formules également) - une différenciation correcte (c'est-à-dire les bonnes variables) donnera les bons poids, et une architecture NN correcte permettra d'apporter la signification des poids au résultat de l'apprentissage... imho

p.s.

De toute façon, pour moi, les fractions H et L de la proximité m'inspirent plus confiance que la simple proximité... - c'est le but ici - définir les échelles correctement dans la boîte noire (c'est pourquoi il est important de savoir ce qui est en entrée et ce qui est en sortie) - ne pas obtenir une dispersion déraisonnablement élevée/faible... et ne pas perdre de gradient significatif au stade de l'apprentissage - et comme Mikhail Mishanin l'a déjà dit (avant que le fil ne sombre dans les inondations et les querelles) - "laisser le plus important survivre et évoluer".

dans NN - presque comme sur Titanik

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2017.07.23
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 

J'échange avec un polynôme comme celui-ci et je ne m'en fais pas.

double decision = -0.07651082803761469 * sigmoid(x1 + x2 + x3) -0.04311207233300622 * sigmoid(x1 + x3 + x4) -0.05386865347421374 * sigmoid(x0 + x1 + x5) -0.00827465962899799 sigmoid(x1 + x2 + x4 + x5) -0.10576034451547747 * sigmoid(x4 + x6) -0.10960470278870797 * sigmoid(x0 + x2 + x3 + x5 + x6) -0.07378595451557275 * sigmoid(x0 + x1 + x2 + x4 + x5 + x6)  + 0.12026124486704332 * sigmoid(x7)  -0.06493964309873379 * sigmoid(x0 + x1 + x4 + x5 + x7)  -0.019388523137606112 * sigmoid(x1 + x2 + x4 + x5 + x7)  + 0.11097666707952629 * sigmoid(x4 + x6 + x7)  -0.0850998961499252 * sigmoid(x2 + x5 + x6 + x7)  -0.07273316247296563 * sigmoid(x0 + x4 + x8)  -0.2787231204565592 * sigmoid(x1 + x3 + x5 + x8)  -0.05990910736573329 * sigmoid(x0 + x1 + x4 + x6 + x8)  -0.0678407759220267 * sigmoid(x0 + x1 + x5 + x6 + x8)  -0.009089263426671367 * sigmoid(x0 + x2 + x3 + x4 + x7 + x8)  -0.10259720462275745 * sigmoid(1.0 + x3 + x4 + x8);
Comme je l'ai déjà dit, le polynôme lui-même n'est pas aussi important que la méthode pour l'obtenir. Mais tout le monde devient sourd quand il ne peut pas comprendre une simple phrase...
 
JeeyCi # :

J'ai toujours plus confiance dans les parts H et L de close que dans close...

Je l'ajouterai/réfuterai moi-même :

et là encore le même problème - les recommandationsici- les fractions ne sont peut-être pas une panacée, mais la gamme dynamique n'est peut-être pas du tout "la différence de période entre 2 fermetures".

Khristian Piligrim #:

Bien sûr, il est très important pour des performances stables et des prévisions efficaces de former correctement le modèle, et pour cela, il faut d'abord former correctement les données d'entrée. À cette fin, j'ai d'abord mis à l'échelle les données d'entrée par analogie avec ce que j'ai fait dans mon article "Le principe de superposition et d'interférence dans les instruments financiers" , puis j'ai décalé la grille d'échelle de façon à ce que les données soient toujours dans la même gamme dynamique, quelle que soit l'évolution du marché. J'ai abandonné les méthodes de normalisation traditionnelles, elles déforment trop les données. Dans la phase suivante, j'ai essayé de m'assurer que le vecteur par rapport auquel la formation a été faite est entièrement couvert par les variables d'entrée, dans la fig. 1. - faible chevauchement, dans la figure 2. - est bien meilleure et, par conséquent, la précision de l'apprentissage sera nettement supérieure (la ligne noire est le vecteur par rapport auquel l'apprentissage est effectué, les autres lignes sont les signaux d'entrée).

c'est à dire une normalisation standard sur la variance et pas particulièrement adaptée... (

? peut-être, dans le coefficient de rationnement pour les données entrantes, ajouter aussi la WMA, ou simplement le poids - après tout, cela reflète la dynamique (bien qu'avec un certain retard)

p.s.

1) mais peut-être que la "gamme dynamique" est douloureusement simple - le point d'intersection de 2 MAs - il est important d'avoir les bonnes périodes... seuls les OTF regardent à 50 et 200... mais pour l'analyse des BigData, des périodes MA plus favorables peuvent être trouvées par la mémoire des réseaux neuronaux (si d'autres facteurs connexes sont pris en compte)... imho

2) bien que personnellement il me semble que la "gamme dynamique" est la seule/les seules périodes où le prix était encore normalement distribué d'un niveau à l'autre (je suppose que vous pourriez dire cluster - a fait une majoration et à nouveau travailler/classer par des poids/caractéristiques/mémoire déjà définis dans le marché plus tôt -- avant l'arrivée de la nouvelle OTF)... mais comment exploiter cette logique dans le rationnement des entrées - je ne sais pas encore (sauf à faire tous les mêmes dy/dx en plus des simples statistiques t).... Il est bien sûr dommage que le testeur de stratégie ne sélectionne pas lui-même les caractéristiques (indices), et que l'optimisation ne soit possible que pour ce qui lui est donné (et loin des informations sources propres)... - Les gens doivent donc aller au ML

Piligrimus - нейросетевой индикатор.
Piligrimus - нейросетевой индикатор.
  • 2009.05.29
  • www.mql5.com
Между делом, сделал сегодня черновой вариант индикатора на формализованной неронной сети...
 
Vous avez une mine d'or et vous ne voyez pas sous vos pieds.
 
BillionerClub #:
Vous avez une mine d'or et vous ne voyez pas sous vos pieds.

Il est clair que le SVM permet une séparation linéaire des dépendances non linéaires (mais la réduction de la dimensionnalité doit être ajustée d'une manière ou d'une autre - elle a ses propres nuances)... mais tout d'abord, l'analyse multivariée (avec les résultats de la régression multiple polynomiale) ne me convient pas, lorsque tous les facteurs s'influencent mutuellement, et je ne sais pas comment la bibliothèque effectue son extraction de caractéristiques (et il y a beaucoup de nuances dans les statistiques) ... Et deuxièmement, pour choisir les hyperparamètres corrects pour SVM en python - vous devez aussi connaître la bibliothèque d'une manière ou d'une autre... beaucoup piétinent ici (la bibliothèque est décente) - tant que les nuances que j'ai décrites le processus de modélisation avec cette bibliothèque ne génère pas un modèle sur/sous-formé, sur-formé ou sous-formé....

pour comprendre cette bibliothèque, si vous la voyez pour la première fois, vous devrez regarder sous vos pieds pendant longtemps...

la partie "dorée" est discutable... je suis toujours sceptique sur le fait de ne pas pouvoir tenir les tendances et d'en sortir plus tôt à cause du robot.... Mais je ne veux pas non plus subir des drawdowns lorsque le robot n'a pas remarqué quelque chose... donc un modèle statistique de qualité vaudrait son pesant d'or même avant ML... pour essayer d'augmenter la probabilité de 50/50... imho

StandardScaler with make_pipeline
StandardScaler with make_pipeline
  • 2018.04.21
  • april
  • stackoverflow.com
If I use , do I still need to use and functions to fit my model and transform or it will perform these functions itself? Also, does also perform the normalization or only the scaling...
 
JeeyCi #:

OU considérer le CDF et écarter les persentiles extrêmes... imho pour trouver le milieu... ou les exploiter

probabilité d'entrer dans les queues de la PDF(qui est en fait dérivée de la CDF, c'est-à-dire que la PDF est la différentielle f-différenciation de la distribution) : 1-P(a<=X<=b) , où [-infini,a] et [b,+infini] sont les queues de la distribution