L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3287

 
Forester #:

J'utilise Valking Forward pour les mêmes raisons.
Et oui, la taille de la section du train est très importante. Par exemple, sur 20000 lignes, on trouve quelque chose sur l'avant, mais sur 5000 ou 100000, c'est aléatoire.

Si "quelque chose" est trouvé, quelle est sa durée de vie en dehors de la formation ?

 
Maxim Dmitrievsky #:
😀

Je ne sais même pas ce que signifient les carrés. Probablement ce qu'écrit le gars de la pomme :)

 
Aleksey Vyazmikin #:

Si "quelque chose" est trouvé, quelle est sa durée de vie en dehors de l'enseignement en général ?

Je ré-entraîne le modèle une fois par semaine. Il peut vivre plus longtemps, je n'ai pas fait de recherches à ce sujet.... mais il se peut que ce soit moins et qu'il soit nécessaire de se recycler comme SanSanych sur chaque barre (si H1, c'est possible en principe).
Pour moi une fois par semaine est acceptable en termes de rapidité - 5 ans pour 260 réentraînements environ passe.
 
Aleksey Vyazmikin #:

Nous pouvons conclure provisoirement qu'en effet, le succès de la formation dépend de la taille de l'échantillon. Cependant, je constate que les résultats de l'échantillon "-1p1-2" sont comparables, voire meilleurs selon certains critères, à ceux de l'échantillon "-1p2-3", alors que pour l'échantillon "0p1-2", les résultats sont deux fois plus mauvais en termes de nombre de modèles satisfaisant au critère donné.

J'ai maintenant lancé un échantillon avec une chronologie inversée, où l'échantillon d'entraînement consiste en l'échantillon initial exam+test+train_p3, et l'échantillon de test est train_p2, et l'examen est train_p1. L'objectif est de voir s'il est possible de construire un modèle efficace sur des données plus récentes qui aurait fonctionné il y a 10 ans.

Selon vous, quel sera le résultat ?

Je n'ai pas eu à attendre longtemps - le résultat se trouve dans la dernière colonne du tableau.

J'essaierai de commenter sans parti pris. D'une part, on peut dire que la modification de la chronologie de l'échantillon a considérablement détérioré les résultats selon le critère principal, à savoir le nombre de modèles appropriés, mais d'autre part, le fait même que de tels modèles aient été trouvés indique qu'il existe des modèles stables dans les données. Ou s'agit-il d'un phénomène aléatoire ? Oui, bien sûr, nous devons prendre d'autres échantillons et mener des études similaires, et ce n'est qu'alors que nous pourrons tirer des conclusions avec plus de confiance. Pour l'instant, il ne s'agit que d'informations à méditer.

Objectivement, il y a beaucoup de données - j'ai l'habitude d'utiliser des multiples d'échantillons plus petits pour l'entraînement, même s'ils sont comparables au cours chronologique. Plus le taux de rappel semble triste dans toutes les expériences. Je suis même surpris que personne n'y ait prêté attention. En général, nous pouvons affirmer à plusieurs reprises que les mesures standard donnent une mauvaise indication du résultat financier si l'on n'utilise pas des prises et des arrêts fixes.

Si vous avez des idées/souhaits sur ce qu'il convient de combiner ici (exemples de graphiques) avec quelque chose, dites-le moi - j'essaierai de vérifier ce qui se passera.

 
Forester #:
Je ne fais que réentraîner le modèle une fois par semaine. Il peut vivre plus longtemps, je n'ai pas fait de recherches.... mais peut-être moins et il faut se recycler comme SanSanych à chaque barre (si H1, alors en principe c'est possible).
Pour moi, une fois par semaine est acceptable en termes de vitesse - 5 ans pour 260 réentraînements environ passent.

Quel est le résultat d'un tel recyclage dans l'ensemble ?

 
Aleksey Vyazmikin #:

Quel est le résultat global de cette reconversion ?

Tous les graphiques que j'ai montrés pour l'année dernière ont été obtenus de cette manière. Seul OOS par Valking-forward.
 
Andrey Dik #:

Max, je ne comprends pas pourquoi tu te moques de moi.

S'il n'y a pas d'hypothèses, ne dites rien, s'il y en a, dites-le, comme "le résultat sera nul".

Si c'est drôle, vous pouvez rire, et si c'est triste, vous pouvez pleurer.

Ce dont Aleksey Vyazmikin discute ici ne peut pas provoquer de suggestions et il est impossible d'évaluer "merdique - pas merdique".

Exemple : un homme se présente et dit :

- envoyons un fer à repasser sur la lune.

Nous regardons avec surprise.

Et l'homme dit :

- et nous changerons la température du fer et mettrons différentes quantités d'eau dedans.

Réagirez-vous "s'il n'y a pas d'hypothèses - gardez le silence, s'il y en a - parlez, comme "le résultat sera merdique" ?

Ce que fait Leksey Vyazmikin n'a rien à voir avec les problèmes du ministère de la défense. Il s'inspire d'un opéra et tente d'obtenir une réponse d'un autre opéra - tout le bavardage vide d'un homme qui a le désordre dans la tête.

 
Forester #:
Tous les graphiques que j'ai montrés l'année dernière ont été obtenus de cette manière. Seul OOS par Valking Forward.

À en juger par les images, le rappel est également faible, ce qui signifie que le modèle n'a guère confiance en quoi que ce soit et qu'il est très prudent dans ses prévisions.

 
Forester #:
Je ne fais que réentraîner le modèle une fois par semaine. Il peut vivre plus longtemps, je n'ai pas fait de recherches.... mais peut-être moins et il faut se recycler comme SanSanych à chaque barre (si H1, alors en principe c'est possible).
Pour moi, une fois par semaine est acceptable en termes de vitesse - 5 ans pour 260 réentraînements environ passent.

J'ai découvert un problème fondamental : le fait de regarder devant soi. Il se manifeste de la manière suivante : nous prenons des morceaux d'un grand fichier, nous les enseignons, puis nous les testons, nous les vérifions - tout est normal, l'erreur est à peu près la même. Mais dès que nous sortons de ces trois fichiers, qui sont des morceaux d'un grand fichier, le résultat est fondamentalement différent, généralement catastrophique.

Si l'on procède à un réentraînement à chaque étape, le problème du "regard vers l'avant" est éliminé, car la prédiction est effectuée sur les mêmes valeurs de prédicteurs que l'entraînement.

Et si l'on n'apprend pas à chaque étape, tous les prédicteurs, y compris la section d'apprentissage, sont appris sur certaines valeurs, puis prédits sur celles-ci. Et voici la question : les nouvelles valeurs des prédicteurs coïncideront-elles ou non avec les valeurs des prédicteurs dans le diagramme d'apprentissage ?

 
СанСаныч Фоменко #:

C'est là que j'ai découvert un problème fondamental : l'anticipation. Il se manifeste de la manière suivante : nous prenons des morceaux d'un grand fichier, nous les étudions, puis nous les testons, nous les vérifions - tout est normal, l'erreur est à peu près la même. Mais dès que nous sortons de ces trois fichiers, qui sont des morceaux d'un grand fichier, le résultat est fondamentalement différent, généralement catastrophique.

Si nous procédons à un réentraînement à chaque étape, le problème du "regard vers l'avant" est éliminé, car la prédiction est effectuée sur les mêmes valeurs de prédicteurs que l'entraînement.

Et si l'on n'enseigne pas à chaque étape, tous les prédicteurs, y compris la section d'entraînement, sont enseignés sur certaines valeurs, puis prédits sur celles-ci. Et voici la question : les nouvelles valeurs des prédicteurs coïncideront-elles ou non avec les valeurs des prédicteurs dans le diagramme d'apprentissage ?

Où se trouve cette image que vous avez ?

Je l'ai lu plusieurs fois et je n'ai pas vu la logique derrière les mots.

Ils inventent des problèmes - puis les résolvent héroïquement - l'un se projette dans l'avenir, l'autre cherche la marque parfaite....