L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 402

 
Aliosha:

XGB - https://en.wikipedia.org/wiki/Xgboost est l'arme thermonucléaire de l'apprentissage automatique.

3 mois pour le hft n'est pas tout à fait suffisant, pour un cycle complet de simulation, car le modèle doit être testé sur différents marchés, des changements de régime, des toits clignotants et différents cygnes, les tests de stress synthétiques ne peuvent pas faire cela comme le marché réel. Dans la plupart des cas, le modèle final n'utilisera pas plus d'une semaine de données, mais pour le configurer, vous devrez l'exécuter sur des échantillons de 1 à 3 ans pour vous assurer qu'il ne se plante pas partout. En 3 mois, les données peuvent être entraînées et, si les scientifiques des données connaissent leur métier, cela se révélera être un gagne-pain régulier, mais un jour, peut-être dans 3 mois, peut-être dans 6 mois, tout peut s'effondrer brusquement, pour une raison "inconnue", ou plutôt connue, car le modèle n'a pas rencontré un tel méta état du marché et a permis l'amateurisme.


ah, eh bien, il faut se recycler systématiquement, à quoi bon former un hft en 5 ans, il ne faut ni les nerfs ni les ressources.

Ah, le renforcement du gradient... entendu, entendu, mais je ne l'ai pas fait. Plus on avance dans les bois, plus les termes sont compliqués.

 
Maxim Dmitrievsky:


Ils n'ont pas le sens de former l'hft en 5 ans, ils n'ont ni le courage ni les ressources pour le faire.

Peut-être les gars deLTCM ont-ils également avancé cet argument). Ils affirment que s'ils avaient regardé deux fois plus loin dans leurs modèles, ils n'auraient pas fusionné avec autant d'acharnement.

En tout cas, la formation ne va pas immédiatement à l'échantillon entier de 5 ans, il est clair que la fenêtre coulissante prend un échantillon, avec un apprentissage constant, mais il est important de savoir à quelle vitesse le modèle "sait" quand quelque chose change fortement dans le marché et ce n'est pas une aberration, pas la stupidité de quelqu'un, et ne sera pas courageusement remplir contre une tendance soudaine, l'appel de Kolya.

 
Aliosha:

Peut-être les gars deLTCM ont-ils également avancé cet argument). Ils affirment que s'ils avaient regardé deux fois plus loin dans leurs modèles, ils n'auraient pas fusionné avec autant d'acharnement.

L'apprentissage en tout cas ne va pas immédiatement à l'ensemble de l'échantillon de 5 ans, il est clair que la fenêtre coulissante prend un échantillon, avec un apprentissage constant, mais il est important de savoir à quelle vitesse le modèle "sait" quand quelque chose change fortement dans le marché et ce n'est pas une aberration, pas la stupidité de quelqu'un, et ne sera pas courageusement remplir contre une tendance soudaine, l'appel Kolya.


Mdya...... vous arrivez à chier sur le travail, alors que vous parlez vous-même d'entonnoirs complètement différents. En règle générale, le modèle n'est pas bon lorsqu'il casse la ligne de support de la courbe d'équilibre, et ensuite il se redresse, comme je l'ai montré précédemment... Faire confiance ou non au travail du modèle est une question philosophique. Personne ne dit que trois mois de données, c'est trop peu. MAIS j'ai une question, comment savez-vous que je les collecte et à quoi ils se réfèrent ??????. Je suis juste curieux. Qu'est-ce qui vous fait penser soudainement que le modèle perdra son sens si toutes les évolutions possibles du marché lui ont été présentées pendant trois mois ?????.

Vous devez comprendre ce qu'il en est avant de pouvoir prédire le marché. Oui, le marché change dans une période globale, mais j'utilise des données qui provoquent le prix, c'est-à-dire que ce sont ces données qui changent le prix et non l'inverse. De plus, après le téléchargement, j'utilise un processus unique de nettoyage des données, afin d'obtenir de tels modèles. Bien que mon métier lui-même ne soit pas trop mal en point. J'ai besoin d'un ROBOT de toute urgence. Et une question pour le public... Est-ce que quelqu'un a un squelette de robot qui prend en compte les requêtes, les ouds, et d'autres choses dans le commerce réel ?????.

 
Mihail Marchukajtes:


Personne ne dit que trois mois de données, c'est trop peu. MAIS ma question est de savoir comment vous savez que je les collectionne et à quoi ils se rapportent ??????. Simple curiosité. Qu'est-ce qui vous fait soudain penser que le modèle serait dénué de sens si toutes les évolutions possibles du marché lui étaient présentées dans un délai de trois mois ?????.

Si vous vous entraînez sur des données de trois mois, vous ne pouvez pas espérer que le modèle dure beaucoup plus longtemps. Le marché que le modèle a vu, est celui sur lequel il pourra commercer. Votre jeu de données est absurde, négocier avec lui, c'est comme deviner avec du marc de café. Il en va de même pour la "machine de Reshetov" qui obtient des coefficients pour un modèle linéaire, alors que les données ne sont pas du tout linéaires. Il faut n'être pas du tout distant pour croire à cette absurdité selon laquelle, sur un ensemble de données de <500 points, un modèle linéaire a mis des semaines à apprendre, parce que c'est de l'"IA" )))))))))...... Je ne sais pas.... c'est plus nul que la martingale et le "depo boosting".

 
Aliosha:

Si vous vous êtes entraîné sur 3 mois de données, vous ne pouvez pas espérer que le modèle dure beaucoup plus longtemps. Le modèle pourra négocier le marché qu'il a vu. Votre ensemble de données est absurde, et négocier avec lui, c'est comme deviner avec du marc de café. Il en va de même pour la "machine de Reshetov" qui obtient des coefficients pour un modèle linéaire, alors que les données ne sont pas du tout linéaires. Il faut n'être pas du tout distant pour croire à cette absurdité selon laquelle, sur un ensemble de données de <500 points, un modèle linéaire a mis des semaines à apprendre, parce que c'est de l'"IA" )))))))))...... Je ne sais pas.... c'est plus absurde que la martingale et "remonter la chaîne des marguerites".


La valeur de la semaine ???? Aliocha, tu es vraiment ALESHA Ha ha ha.... Quel genre de personnes sont ces jours-ci. Ladnaya Alexeyushka vous notre, c'est notre première lire l'article ici et vous comprendrez que mes 500 points que j'ai recueilli pendant trois mois, parce que je ne pousse pas le classificateur chaque barre, et le faire à un certain moment et donc 500 points couvrent le marché pendant 3 mois, et que votre modèle ne pouvait pas former sur elle correctement, donc c'est parce que vous avez un système de "merde" de l'IA. Je l'ai même mis entre parenthèses pour une sorte d'éloge :-) Eh Aliocha, Aliocha......Puis je vois que pendant le week-end les trolls sont réveillés aussi..... Bon, personnellement je m'en fous, je vous le dirai à la fin d'un autre secret, juste pour développer, pour que vous compreniez sur qui "vous crachez".

À tous ceux qui pensaient que mon ensemble de données était pire que 50% !!!!!!! Votre système d'IA n'est pas construit correctement ou comporte une erreur OR !!!!!!!! Et puis il y a le roulement de tambour de..... Votre système est limité par la quantité de matériel que vous apprenez, vous utilisez des grilles qui sont capables d'apprendre correctement en 2 à 3 semaines (prenons comme règle qu'il n'y a pas de recyclage du tout) et de travailler pendant une semaine ou deux. De tels systèmes existent et il n'y a rien de mal à ce qu'ils le fassent. CECI FONCTIONNE !!!! MAIS, lorsque vous y déposez un grand ensemble de données, il est horriblement sur-entraîné ou sous-entraîné, ce qui conduit finalement à de grosses erreurs d'apprentissage et vous commencez à penser que l'ensemble de données est nul, ce qui est tout à fait raisonnable pour vos systèmes d'IA. MAIS, quand un système d'IA est vraiment cool, il est capable de construire un modèle (et de ne pas faire de sur-entraînement) même sur cet ensemble de données sur lequel VOUS avez échoué..... Vous voyez !!!! Juste le modèle sera composé d'un grand nombre d'entrées, je le pense 10-12 et le polynôme sera assez long et croyez-moi, un tel modèle aura plus de 50% de profit. Ou plutôt, même pour l'optimiseur REACH, il y a une limite, mais elle est bien plus importante que pour ceux qui ont échoué...... Comme cela.....

 

Et ce qui est intéressant, c'est que le résultat principal de cet optimiseur est le pourcentage de généralisation et j'ai construit des modèles avec un niveau de généralisation de 100%. Mais avec l'augmentation du pourcentage de l'échantillon, celui-ci commence à diminuer, et au moment où il passe en dessous de 50 %, le modèle commence à s'épuiser. Mais il est plus probable qu'elle soit proche de la barre des 50. Quoi qu'il en soit, s'il y a un poisson dans les données, il le trouvera, sinon, il sera trop tard......

Il est également très bon pour répondre à la question de savoir si les données sont bonnes pour la variable sélectionnée, si les données sont merdiques, cela sera immédiatement visible.....

Je suis hilare, j'ai divisé l'ensemble de données que j'ai posté et l'un des échantillons fait 138 lignes, je l'ai exécuté, j'attends ..... Je posterai les résultats si cela m'intéresse.....

 
Mihail Marchukajtes:


Je veux dire semaines ???? Aliocha, vous êtes vraiment Aliocha Ha ha ha .... Quel genre de personnes sont-elles de nos jours ? Ladnaya Alexeyushka vous notre, c'est notre première lire l'article ici et vous comprendrez que mes 500 points que j'ai recueilli pendant trois mois, parce que je ne pousse pas le classificateur chaque barre, et le faire à un certain moment et donc 500 points couvrent le marché pendant 3 mois, et que votre modèle ne pouvait pas former sur elle correctement, donc c'est parce que vous avez votre système de l'IA "merde". Je l'ai même mis entre parenthèses pour une sorte d'éloge :-) Eh Aliocha, Aliocha......Puis je vois que pendant le week-end les trolls sont réveillés aussi..... Personnellement, je m'en moque, je vous laisserai à la fin un secret de plus, juste pour développer, afin que vous compreniez de qui vous vous "moquez".

À tous ceux qui pensaient que mon ensemble de données était pire que 50% : ! !!!!!! Votre système d'IA n'est pas construit correctement ou comporte une erreur LIBO !!!!!!!! Et puis il y a le roulement de tambour de.... Votre système est limité par la quantité de matériel que vous apprenez, vous utilisez des grilles qui sont capables d'apprendre correctement en 2 à 3 semaines (prenons comme règle qu'il n'y a pas de recyclage du tout) et de travailler pendant une semaine ou deux. De tels systèmes existent et il n'y a rien de mal à ce qu'ils le fassent. CECI FONCTIONNE !!!! MAIS, lorsque vous y déposez un grand ensemble de données, il est horriblement sur-entraîné ou sous-entraîné, ce qui conduit finalement à de grosses erreurs d'apprentissage et vous commencez à penser que l'ensemble de données est nul, ce qui est tout à fait raisonnable pour vos systèmes d'IA. MAIS, quand un système d'IA est vraiment cool, il est capable de construire un modèle (et de ne pas faire de sur-entraînement) même sur cet ensemble de données sur lequel VOUS avez échoué..... Vous voyez !!!! Juste le modèle sera composé d'un grand nombre d'entrées, je le pense 10-12 et le polynôme sera assez long et croyez-moi, un tel modèle aura plus de 50% de profit. Ou plutôt, même pour l'optimiseur REACH, il y a une limite, mais elle est bien plus importante que pour ceux qui ont échoué...... Comme cela.....


Et la chose la plus intéressante est que le résultat principal de cet optimiseur est le pourcentage de généralisation et que je construisais des modèles avec un niveau de généralisation de 100%. Mais avec l'augmentation du pourcentage de l'échantillon, celui-ci commence à diminuer, et il arrivera un moment où il tombera en dessous de 50%, et alors le modèle s'épuisera. Mais il est plus probable qu'elle soit proche de la barre des 50. De toute façon, s'il y a un poisson dans les données, il le trouvera, sinon, c'est un désordre......

C'est aussi très bon pour répondre à la question de savoir si les données sont bonnes pour la variable sélectionnée, si les données sont pleines de merde, on le verra immédiatement.....

Je suis hilare, j'ai divisé l'ensemble de données que j'ai posté et l'un des échantillons fait 138 lignes, je l'ai exécuté, j'attends ..... Je posterai les résultats si cela m'intéresse.....

Je ne vais pas discuter avec toi, il n'y a rien à discuter, tu dis n'importe quoi, "généralisation à 100%" )))))) Je pense que vous ne comprenez même pas la différence entre un modèle linéaire et non linéaire. Et la "machine de Reshetov" est linéaire, elle ne peut même pas c XOR, c'est une stupide optimisation des coefficients de l'hyperplan de division par une pseudo génétique, un babillage enfantin...

C'est ça, je n'offense pas les enfants, je suis un oncle méchant, maléfique, à qui l'on dit que le Père Noël n'existe pas))).

 
Aliosha:

Je ne vais pas discuter avec vous, il n'y a rien à discuter, vous êtes plein de bêtises, "généralisation à 100%" )))))) Je pense que vous ne comprenez même pas la différence entre un modèle linéaire et non linéaire. Et la "machine de Reshetov" est linéaire, elle ne peut même pas c XOR, c'est juste une optimisation des coefficients des hyperplans par une sorte de pseutogénétique, un babillage enfantin....

C'est tout, je n'offense pas les enfants, je suis un oncle méchant, maléfique, qui m'a dit que le Père Noël n'existe pas)))).


YEAH !!!!! Je suis le Père Noël ! !! Et chaque année, je félicite les enfants pour cette belle fête. Vous avez même réussi à perdre contre moi ici :-)
 
Alyosha:

Je ne vais pas discuter avec vous, il n'y a rien à discuter, vous êtes plein de bêtises, "généralisation à 100%" )))))) Je pense que vous ne comprenez même pas la différence entre un modèle linéaire et non linéaire. Et la "machine de Reshetov" est linéaire, elle ne peut même pas c XOR, c'est une stupide optimisation des coefficients de l'hyperplan de division par une pseudo génétique, un babillage enfantin...

C'est tout, je n'offense pas les enfants, je suis un oncle méchant, maléfique, qui m'a dit que le Père Noël n'existe pas)))).


Je vais vous donner un modèle avec un niveau de généralisation de 100%.....
 
Mihail Marchukajtes:

Je vous enverrai un modèle avec un niveau de généralisation de 100%....
Pas besoin de faire sauter le graal, échangez d'urgence dessus, échangez ! Tout le monde vous remerciera :)