L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 89

 
Vizard_:
Le contrôle coulissant est destiné aux fans))))) et le fait que le modèle ne convienne que dans ce cas est une erreur.
Mais tout cela n'a pas de sens, chacun a ses particularités et ses besoins à différents stades, vous pouvez aussi les ajouter.
J'ai voulu dire le pourcentage de sortie pour le général et le test (test = OOS - application de la formule aux nouvelles données)
Un avantage des applications de fenêtre, dans leur utilisation rapide. Il est possible de faire un shell normal,
Reshetov est un codeur expérimenté, donc cela doit être fait de manière normale. C'est tout. Tout cela est bien sûr subjectif.
Je n'essaierai pas le logiciel de Yuri, pas parce que je pense qu'il fait de la merde. Même s'il est un programmeur expérimenté. C'est juste que tout est déjà implémenté, il s'avère même qu'il y a une marche en avant dans le paquet que j'utilise. Et il y a 150-200 modèles par échantillon, du SVM au modèle linéaire avec régularisation, en passant par XGBOOST.
 
Alexey Burnakov:


Lorsque la sélection d'un bon modèle dans un échantillon donne de bons résultats en dehors de l'échantillon, cela signifie que le modèle est adapté au problème choisi.

Encore une fois, pour ceux qui sont particulièrement doués : si un modèle passe la sélection, cela ne signifie pas qu'il est potentiellement adapté au problème choisi, surtout dans des environnements non stationnaires. Cela signifie seulement qu'il a en quelque sorte passé la sélection.

Si une candidate a passé la sélection des examens d'entrée à l'université, cela ne signifie pas qu'elle défendra son diplôme, et encore moins qu'elle travaillera ensuite dans le domaine qu'elle a choisi.

La sélection ne fait que réduire la probabilité d'inaptitude, mais pas toujours à zéro. Et il ne faut pas oublier que les résultats de la sélection peuvent aussi être des faux positifs et des faux négatifs. En d'autres termes, il existe une probabilité non nulle que le processus de sélection ait également jeté "le bébé avec l'eau du bain".

 
Yury Reshetov:

Encore une fois, pour les particulièrement doués : si un modèle passe la sélection, cela ne signifie pas qu'il est potentiellement adapté au problème choisi, surtout dans des environnements non stationnaires. Cela signifie simplement qu'il a en quelque sorte passé la sélection.

Si une candidate est sélectionnée par les examens d'entrée à l'université, cela ne signifie pas qu'elle défendra son diplôme, et encore moins qu'elle travaillera ensuite dans la spécialité qu'elle a choisie.

La sélection ne fait que réduire la probabilité d'inaptitude, mais pas toujours à zéro. Et il ne faut pas oublier que les résultats de la sélection peuvent aussi être des faux positifs et des faux négatifs. En d'autres termes, il existe une probabilité non nulle que le processus de sélection ait également jeté "le bébé avec l'eau du bain".

Laissez-moi vous expliquer à nouveau pour les personnes très sophistiquées.

Tous les résultats sont bien sûr probabilistes !

Il y a des résultats de modèle dans la formation, il y a des résultats dans la validation croisée ou le test (pour relever les paramètres du modèle et faire un arrêt d'apprentissage précoce). Il existe également des résultats de modèles hors échantillon - estimation finale.

Si les résultats sur les tests sont bien corrélés avec les résultats hors échantillon, cela signifie que la qualité de la modélisation des dépendances a une inertie pour la période hors échantillon. Dans ce cas, on peut prendre le meilleur modèle en test (pas "hors échantillon"). Par la suite, on peut réentraîner le modèle sur toutes les nouvelles données avec des paramètres connus et prendre le meilleur modèle, car la relation avec les résultats futurs est pratiquement établie.

Si les résultats du test sont en mauvaise corrélation avec les résultats hors échantillon, prendre le meilleur modèle pour la formation n'a aucun sens. Prendre le meilleur modèle en "hors échantillon" est un ajustement. Il n'y a qu'une seule solution : rejeter la méthode de création du modèle ou modifier sensiblement les plages de paramètres.

 
Et moi, par exemple, j'utilise l'apprentissage profond pour augmenter la capacité de généralisation de l'optimiseur de Reshetov, et avec la nouvelle possibilité d'évaluer la qualité du prédicat, c'est de toute beauté. Avec l'apprentissage profond, le taux de généralisation peut passer de 50% à 80-90% et dans ce cas, le modèle commence à fonctionner à hurrah..... Alors, prenez-le à partir d'ici, les gars. Et pas besoin de se disputer (c) Leopold et tout le reste......
 
.

"Vous pourriez leur suggérer de créer un fil de discussion pendant une semaine, par exemple - une semaine pour que les gens puissent s'exprimer - puis les laisser s'y frotter."

Je ne sais pas quel gadget a inséré la citation ci-dessus dans mon message, mais ce n'est pas mon message.

Si les modérateurs n'aiment pas quelque chose dans mes messages, c'est leur droit. Il suffit de ne pas coller le texte de quelqu'un d'autre dans mes posts, et d'agir de manière plus culturelle : indiquer ce qu'ils n'ont pas aimé exactement et en leur propre nom. Et moi, pour ne pas irriter les modérateurs, je quitte ce site pour le mien : le lien est dans mon profil.

Au revoir à tous !

 
Yury Reshetov:
.

"Vous pourriez leur suggérer de créer un fil de discussion pendant une semaine, par exemple - une semaine pour que les gens puissent s'exprimer - puis les laisser s'y frotter."

Je ne sais pas quel genre de hobgobelin a inséré la citation ci-dessus dans mon message, mais ce n'est pas mon message.

Si les modérateurs n'aiment pas quelque chose dans mes messages, c'est leur droit. Il suffit de ne pas coller le texte de quelqu'un d'autre dans mes posts, et d'agir de manière plus culturelle : indiquer ce qu'ils n'ont pas aimé exactement et en leur propre nom. Et moi, pour ne pas irriter les modérateurs, je quitte ce site pour le mien : le lien est dans mon profil.

Au revoir à tous !

WOW ! !! Et je pensais que c'était toi qui avait écrit... Un geste intelligent... c'est vrai...
 
Yury Reshetov:
.

"Vous pourriez leur suggérer de créer un fil de discussion pendant une semaine, par exemple - une semaine pour que les gens puissent s'exprimer - puis les laisser s'y frotter."

Je ne sais pas quel genre de hobgobelin a inséré la citation ci-dessus dans mon message, mais ce n'est pas mon message.

Si les modérateurs n'aiment pas quelque chose dans mes messages, c'est leur droit. Il suffit de ne pas coller le texte de quelqu'un d'autre dans mes posts, et d'agir de manière plus culturelle : indiquer ce qu'ils n'ont pas aimé exactement et en leur propre nom. Et moi, pour ne pas irriter les modérateurs, je quitte ce site pour le mien : le lien est dans mon profil.

Au revoir à tous !

N'hésitez pas à revenir.
 
Vizard_:

Je jetterai un coup d'œil plus tard pour voir si ça m'intéresse, mais je pense que j'ai fait des bêtises)))).
Ouais, le +R est qu'il a probablement déjà implémenté tout ce qui est possible. ML depuis longtemps, mais juste des modèles sans retrain. Une des dernières choses que j'ai faites avec ML était juste
bourrer le modèle d'événements pour qu'ils touchent toujours la cible. En les combinant, vous obtenez généralement 93-96%. Le reste, vous le formez. En d'autres termes.
Si vous avez appris à votre enfant à marcher un peu, vous n'avez pas besoin de lui dire la même chose tous les jours, vous lui dites simplement quand sauter par-dessus la flaque d'eau.
(pas de prédiction dans la cible).un peu de goutte à goutte, la cible n'est certainement pas la couleur de la bougie))))
Je n'ai aucune idée de comment faire ça.
 
Vizard_:

Un peu dégoulinant, la cible n'est bien sûr pas la couleur de la bougie ;)))
Cela ne va pas sans dire.)
 
Nested cross validation for model selection
Nested cross validation for model selection
  • stats.stackexchange.com
How can one use nested cross validation for model selection? From what I read online, nested CV works as follows: There is the inner CV loop, where we may conduct a grid search (e.g. running K-fold for every available model, e.g. combination of hyperparameters/features) There is the outer CV loop, where we measure the performance of the model...