L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 386

 

OK, donc ce 0,8% est obtenu honnêtement. Apparemment, il y a un algorithme intégré dans le modèle pour se protéger contre le surentraînement.


Maxim Dmitrievsky:

Eh bien, tout d'abord, il y a un très grand ensemble, deuxièmement, la nature des caractéristiques n'est pas du tout connue et les modèles linéaires comme les vecteurs et Forest ne sont évidemment pas adaptés ici, nous devons faire une non-grille complexe, c'est peut-être la raison.


Les modèles de classification ne correspondent pas vraiment, oui. Une régression est nécessaire. Parce que le résultat est évalué non pas par la précision du modèle, mais par la fonction Logloss, qui donne généralement une estimation plus élevée des résultats de la régression.

MultiLogLoss <- function(act, pred) {
  eps <- 1 e-15
  pred <- pmin(pmax(pred, eps), 1 - eps)
  sum(act * log(pred) + (1 - act) * log(1 - pred)) * -1 / length(act)
}

acte (réel) - résultat attendu, vecteur
pred (predicted) - résultat prédit, vecteur

Plus le score de cette fonction est faible, mieux c'est. Si le résultat de la fonction est supérieur ou égal à 0,6931472, le modèle est mauvais et ce résultat suggère une estimation aléatoire.

Et à en juger par les résultats du 54e tour, le gagnant a obtenu 0,690467 en estimant sur les nouvelles données, cachées pour les participants, c'est le résultat que nous devons nous efforcer d'atteindre.

 
Dr. Trader:

OK, donc ce 0,8% est obtenu honnêtement. Apparemment, il y a un algorithme anti-overfitting intégré dans le modèle.



Les modèles de classification ne correspondent pas vraiment, oui. Une régression est nécessaire. Parce que le résultat n'est pas évalué par la précision du modèle, mais par la fonction Logloss, qui donne généralement un score plus élevé aux résultats de la régression.

acte (réel) - résultat attendu, vecteur
pred (predicted) - résultat prédit, vecteur

Plus le score de cette fonction est faible, mieux c'est. Si le résultat de la fonction est supérieur ou égal à 0,6931472, le modèle est mauvais et ce résultat suggère une estimation aléatoire.

Si l'on en juge par les résultats du 54e tour, le gagnant du concours a obtenu 0,690467 lors de l'estimation sur les nouvelles données cachées des participants, c'est le résultat que nous devons nous efforcer d'atteindre.


La régression NS produit ceci sur un échantillon d'entraînement, c'est aussi un échantillon de test, je ne suis pas sûr de savoir comment l'interpréter correctement, mais ça me semble mauvais aussi). En d'autres termes, un réseau neuronal simple standard ne présente aucun avantage en matière de régression par rapport à la classification, et aucun avantage non plus par rapport aux autres méthodes de classification. Et il y a des entrées et des sorties normalisées, la régression n'a aucun sens pour moi dans ce cas...


 

Sélectionner la littérature dans un domaine concurrentiel


5087 documents correspondent à la recherche de GARCH, GJR-GARCH, EGARCH, dans les titres et mots-clés.


Les modèles GARCH sont censés être intelligents, tout est modélisé de manière transparente :

1. la série originale est convertie en incréments sous forme de log(Xi/ Xi-1).

2. La moyenne est modélisée avec le modèle ARIMA

3. les nuances de la dispersion au sens de l'asymétrie et de l'aplatissement (queues épaisses), etc. sont modélisées.

4. La distribution elle-même est modélisée. Habituellement, on utilise soit une distribution t asymétrique, soit une distribution GED asymétrique.


Lorsque l'on considère le trading sur les bourses, on introduit des modèles avec des modes de commutation, qu'ils prennent en compte les changements des paramètres du modèle, ou les spreads.


Dans les articles, on trouve souvent du code prêt à l'emploi en R.

 
SanSanych Fomenko:

Sélectionner la littérature dans un domaine concurrentiel


5087 documents correspondent à la recherche de GARCH, GJR-GARCH, EGARCH, dans les titres et mots-clés.


Les modèles GARCH sont censés être intelligents, tout est modélisé de manière transparente :

1. la série originale est convertie en incréments sous forme de log(Xi/ Xi-1).

2. La moyenne est modélisée avec le modèle ARIMA

3. les nuances de la dispersion au sens de l'asymétrie et de l'aplatissement (queues épaisses), etc. sont modélisées.

4. La distribution elle-même est modélisée. Habituellement, on utilise soit une distribution t asymétrique, soit une distribution GED asymétrique.


Lorsque l'on considère le trading sur les bourses, on introduit des modèles avec des modes de commutation, qu'ils prennent en compte les changements des paramètres du modèle, ou les spreads.


Dans les articles, on trouve souvent du code prêt à l'emploi en R.


Et le fait que les incréments n'indiquent en aucune façon les tendances ? Mon modèle utilise également les gradients pour la précision à court terme, mais je considère aussi les ratios de tendance d'une manière astucieuse

Ah, eh bien, vous pouvez regarder les incréments sur différents échantillons de temps. Avez-vous essayé de former ns return-self à partir de différentes TF ?

 
Maxim Dmitrievsky:



Qu'en est-il du fait que les incréments n'indiquent en aucune façon les tendances ?

Oui, ils le font.

Le modèle prédit soit l'augmentation, soit la direction - c'est à cela que servent les modèles de classification.

Je n'ai pas connaissance de modèles de classification qui reconnaissent les mouvements dans les journaux télévisés. Et pour GARCH, c'est l'objectif du modèle : déterminer le mouvement survenu. Queues de pie - il s'agit du mouvement sur les nouvelles lorsque les tendances se brisent et que de brusques revirements se produisent.


Vous pouvez observer l'augmentation sur différentes périodes.

Il existe des modèles GARCH intéressants pour plusieurs horizons temporels. La signification est la suivante.

Supposons que nous prédisions l'incrément sur H1. Le modèle nécessite des données d'entrée caractérisant la distribution. Comme données d'entrée (généralement la volatilité), nous ne prenons pas l'heure précédente mais les minutes de l'heure en cours.

 
Dr. Trader:

numerai a changé les règles plusieurs fois cette année.

Avant, c'était simple et efficace : on formait un modèle sur une table de formation, on vérifiait l'erreur sur la table de test, on envoyait des prédictions, on les extrapolait sur la table de test cachée, on comptait l'erreur sur cette table. Celui qui a le moins d'erreurs sur la table cachée gagne. Il était très bon et correct que l'erreur sur l'ensemble de données de test coïncide vraiment avec celle sur leur ensemble de données cachées, afin que vous puissiez vérifier votre modèle.

Puis ils ont changé quelque chose, et l'erreur sur l'ensemble de données de test a cessé d'être corrélée avec l'erreur sur leur ensemble de données de contrôle caché. Tous les leaders du sommet ont disparu, juste des personnes aléatoires qui ont eu la chance d'avoir leur modèle dans leur table de contrôle cachée ont gagné. Je pense que c'est un échec de la part de Numeraï, des déchets aléatoires et non un concours.

Puis ils ont vu que toutes les personnes adéquates s'éloignaient de leur concours aléatoire, ont réalisé leur erreur et ont changé quelque chose. Les prédictions sont maintenant évaluées en fonction de plusieurs critères. Ce qui m'énerve le plus, c'est le critère d'"unicité" : si quelqu'un a déjà envoyé des résultats similaires, le vôtre sera rejeté pour plagiat. Par exemple, si plusieurs personnes utilisent le même cadre pour créer un modèle, c'est celui qui s'est levé tôt et a envoyé une prédiction qui recevra l'argent.
La précision du modèle est désormais totalement inutile pour le calcul des bénéfices. Vous pouvez obtenir l'erreur 0, être en 1ère place dans le top et ne rien gagner, car le top montre le résultat sur les données de test qu'ils se donnent à télécharger, le top ne montre plus le résultat de leur tableau de contrôle caché.
L'itération actuelle de leur concours est à mon avis un non-sens, aucune transparence, tout est chamboulé. J'attends qu'ils changent à nouveau quelque chose dans le concours, en espérant qu'il sera à nouveau adéquat.

Combien d'argent réel avez-vous gagné sur ce site avant qu'ils ne changent les règles ?
 

 
Dr. Trader:

Plutôt une sorte de service de rabais ;)) Ce n'est pas comme payer un scientifique des données

 

Chaque semaine, les gagnants du top 100 reçoivent un total de 3 600 dollars, mais les prix diminuent très fortement en volume. La première place reçoit 1000 $, puis 435 $, puis 257 $, etc. Même si vous arrivez à la dixième place (il y a généralement plus de 500 participants), vous recevez un maigre 63 dollars. Tu es victime d'intimidation.

Je vois ce concours plus comme un moyen de comparer mon modèle avec les leaders et d'apprendre différentes approches du datamining que comme un moyen de gagner de l'argent.

 

Je voulais savoir comment le score du tableau de classement (val logloss, vertical) est lié au score obtenu par le modèle sur les nouvelles données (live logloss, horizontal). (55ème tour)

Bravo seulement à ceux qui se trouvent dans le rectangle inférieur gauche. Les autres, même s'ils ont atteint le classement, ont perdu les nouvelles données. Les meilleurs loglosses du classement (les deux points en bas à droite) étaient les pires sur les nouvelles données.

C'est le point le plus à gauche du graphique qui l'emporte, et il ressemble davantage à une aberration aléatoire qu'à un apprentissage machine délibéré.

Il est intéressant de noter qu'avec une perte logarithmique de 0,690 - 0,691 sur les données de validation, presque tous ont également obtenu de bons résultats sur les nouvelles données, mais je n'ai aucune idée de ce que cela a à voir avec cela.