L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1330

 
Aleksey Vyazmikin:

Je suis plus perplexe sur une autre question - pourquoi les graphiques sont très similaires dans différents modèles sur différents échantillons, il semble que les modèles parviennent à attraper un motif évident, qui apparaît avec une périodicité fréquente et sur différentes tailles d'échantillon (au moins ce morceau est constamment dans la fenêtre), et c'est ce motif que le modèle exploite.

J'ai conclu pour ma part qu'il est tout à fait possible d'allouer 30 à 70 % de l'échantillon de toutes les données à un graphique de validation à la recherche de modèles intéressants, mais il semble que 30 % soit encore optimal.

peut-être parce que vous avez le même modèle mais avec une graine différente ? ))

Si le modèle est aléatoire, cela ne signifie pas que la valeur de départ du générateur affectera fortement le résultat.

Les modèles normaux changent à peine, c'est complètement aléatoire. C'est juste un contrôle de robustesse.

Toutes ces conclusions auraient pu être tirées sans rien faire du tout, sans expériences, mais uniquement à partir de la théorie.

30\70 sont des résultats purement aléatoires. La conclusion qu'entre 30 et 70 est asymptotiquement proche de 50. C'était juste un sous-échantillon.

 
Maxim Dmitrievsky:

Peut-être parce que vous avez le même modèle mais avec une graine différente ? ))

Si le modèle est aléatoire, cela ne signifie pas que la valeur de départ du générateur affectera fortement le résultat.

Les modèles normaux changent à peine, c'est complètement aléatoire. C'est juste un contrôle de robustesse.

Toutes ces conclusions auraient pu être tirées sans rien faire du tout, sans expériences, mais uniquement à partir de la théorie.

Si vous regardez attentivement, vous pouvez constater que les résultats financiers des modèles d'un même échantillon peuvent varier fortement - de 5000 à 1500, c'est-à-dire de manière significative, ce qui signifie que Seed a un impact sur les modèles. Je suppose que ce sont les modèles sélectionnés qui sont similaires (je vais vérifier), et qu'ils ont des marges bénéficiaires légèrement différentes, mais presque tous les modèles sont plats au milieu, ce qui est surprenant - ils se trompent dans les mêmes marges (anomalie dans les nouvelles données ?).

Je ne comprends pas l'affirmation "les modèles normaux ne changeront pratiquement pas, alors que les modèles totalement aléatoires changeront" - la deuxième partie de l'affirmation contredit la première.

Maxim Dmitrievsky:

3070 sont des résultats purement aléatoires. La conclusion qu'entre 30 et 70 est asymptotiquement proche de 50. C'est juste un sous-échantillon.

C'est là le problème - aléatoire ou non, c'est-à-dire que cela dépend du contenu de l'échantillon dans cette section ou de la quantité de données dans les échantillons, c'est ce que nous devons comprendre, ce qui a le plus d'influence.

 
Aleksey Vyazmikin:

Si vous regardez attentivement, vous pouvez voir que les résultats financiers des modèles du même échantillon peuvent être très différents - de 5000 à 1500, c'est-à-dire de manière significative, ce qui signifie que Seed affecte effectivement les modèles. Je suppose que ce sont les modèles sélectionnés qui sont similaires (je vais vérifier), et qu'ils ont des marges bénéficiaires légèrement différentes, mais presque tous les modèles sont plats au milieu, ce qui est surprenant - ils se trompent dans les mêmes marges (anomalie dans les nouvelles données ?).

Je ne comprends pas l'affirmation "les modèles normaux ne changeront pratiquement pas, alors que les modèles absolument aléatoires changeront" - la deuxième partie de l'affirmation contredit la première.

C'est là le problème - aléatoire ou non, c'est-à-dire que cela dépend du contenu de l'échantillon dans cette parcelle ou de la quantité de données dans les échantillons, c'est ce qu'il faut comprendre, ce qui a le plus d'impact.

Les modèles à faible erreur, c'est-à-dire les modèles qualitatifs, ne sont pas affectés par les changements de semences. Si vous avez une valeur aléatoire autour de 0,5, vous obtiendrez un grand nombre de modèles différents, car vous serez suralimenté à chaque fois qu'il y aura de l'aléatoire.

 
Maxim Dmitrievsky:

Les modèles à faible erreur, c'est-à-dire les modèles de qualité, ne sont pas affectés par les changements de semences. Si Random est autour de 0,5, vous aurez beaucoup de modèles différents, parce que les overfits pour chaque éternuement de Random

C'est probablement vrai pour une précision de 99%, alors que mon rappel est faible - 20% pour faire bonne mesure, c'est-à-dire que potentiellement la plupart des 1 ne sont pas détectés et qu'il n'y a pas d'entrées, donc différents modèles sont censés fonctionner dans la gamme 0-100 avec une fenêtre de 20%.

 
Aleksey Vyazmikin:

C'est probablement pertinent à 99 % de précision, mais mon rappel est faible - 20 % pour faire bonne mesure, c'est-à-dire que potentiellement la plupart des 1 ne sont pas détectés et aucune entrée n'est faite, donc différents modèles sont censés fonctionner entre 0 et 100 avec une fenêtre de 20 %.

Ce n'est pas la bonne méthode, il faut réduire l'erreur globale du modèle et ne pas réinventer la roue.

alors toutes sortes d'approches bizarres tomberont d'elles-mêmes.

J'ai écrit 50 fois - pas besoin de réinventer la roue, ce chemin ne mène nulle part.
 
Maxim Dmitrievsky:

Ce n'est pas la bonne méthode, il faut réduire l'erreur globale du modèle et ne pas réinventer la roue.

alors toutes ces approches bizarres tomberont d'elles-mêmes.

Je vous l'ai dit 50 fois - pas besoin de réinventer la roue, ce chemin ne mène nulle part.

J'écoute attentivement, que pouvez-vous utiliser d'autre pour réduire l'erreur ?

À ces fins, je modifie la composition de l'échantillon, je change les paramètres de la création du modèle - que puis-je faire d'autre ?

 

Ceux qui se demandent comment les semences affectent les modèles ont pris un échantillon de 30%, tous des modèles - cliquez sur l'animation.


 
Maxim Dmitrievsky:

Ce n'est pas la bonne méthode, il faut réduire l'erreur globale du modèle et ne pas réinventer la roue.

alors toutes sortes d'approches bizarres tomberont d'elles-mêmes

J'ai écrit 50 fois - pas besoin de réinventer la roue, ce chemin ne mène nulle part.
Je ne suis pas d'accord. Si les méthodes standard d'IO fonctionnaient sur le marché, tout le monde gagnerait de l'argent avec elles.
Aleksey Vyazmikin:

Mais il faut inventer des vélos pendant la journée. Et dormir la nuit. Sauvez votre santé.
 
Elibrarius:
Je ne suis pas d'accord. Si les méthodes standard d'IO fonctionnaient sur le marché, tout le monde gagnerait de l'argent avec elles.
Mais le rattrapage des vélos doit se faire pendant la journée. Et dormir la nuit. Sauvez votre santé.

Le problème ne vient pas des méthodes standard, mais d'un manque de compréhension de ce que vous essayez de faire avec elles et du processus avec lequel vous travaillez.

c'est-à-dire le manque d'éducation économique et mathématique.

donc c'est comme une particule brownienne qui se balade... peut-être par ici ou par là...

Et tout le monde refuse de lire des livres "compliqués", surtout en anglais.

 
Maxim Dmitrievsky:

Le problème ne vient pas des méthodes standard, mais d'une mauvaise compréhension de ce que vous essayez de faire avec elles.

un exemple de stupidité est la sortie en zigzag.

La machine nucléaire de Reshetov est le même vélo que certains utilisent ici. Et il semble qu'il réussisse mieux à traiter avec le marché que quelque chose de standard.

Alors je suis pour les vélos ! ) Mais bien sûr, vous devez aussi savoir quoi faire avec eux.