L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1302

 
Maxim Dmitrievsky:

Ce qui me plaît le plus, c'est le grand nombre de "prédicteurs". D'où viendrait-elle dans les citations en premier lieu ? C'est à 90% de la merde.

Chacun décrit son illusion de différentes manières, et l'illusion de celui qui a beaucoup d'argent sur le moment fonctionne. C'est pourquoi, en réalité, il peut y avoir plusieurs prédicteurs, je ne vois pas de contradiction ici, c'est comme des buissons composés de branches et de feuilles, mais quelqu'un peut les tailler en différentes figures complexes qui provoquent des réactions différentes des contemplateurs.

 
Aleksey Vyazmikin:

Chacun décrit son illusion de différentes manières, et l'illusion de celui qui a beaucoup d'argent sur le moment fonctionne. Donc, en réalité, il peut y avoir plusieurs prédicteurs, je ne vois pas de contradiction ici, c'est comme des arbustes composés de branches et de feuilles, mais quelqu'un vient à l'esprit de les tailler en différentes figures complexes, provoquant une réaction différente des contemplateurs.

Bon, chacun son truc, j'ai du mal avec ce genre de scrupules, en tout cas, l'ajustement tel qu'il est, la principale chose qui fonctionnerait pendant un moment...

il s'avère que si vous trouvez une combinaison optimale d'entrées/sorties, 4 prédicteurs sont suffisants.

en bref, un compromis entre l'efficacité et le temps est nécessaire

 
Maxim Dmitrievsky:

Quelle que soit la façon dont vous creusez, vous trouverez des "modèles" illusoires partout, et ils peuvent être trouvés dans tout phénomène

Ce qui me réjouit le plus, c'est le grand nombre de "prédicteurs". D'où vient-il dans les citations ? C'est à 90% de la merde.

Exactement, c'est n'importe quoi. Et chaque indicateur pris séparément donne environ 50/50, et, de plus, a une plage de fonctionnement très étroite - dans les endroits où ses lectures ont vraiment un sens.

Mais pris ensemble... Ils limitent déjà le domaine d'application d'autres indicateurs, en définissant une certaine zone de l'espace à N dimensions, dans laquelle leurs lectures conjointes ont un sens. Je crois que cela s'appelle un mot à la mode - la synergie).

Selon moi, il faut 7 à 8 indicateurs-prédicteurs pour que cela fonctionne. Le seul problème est qu'ils ne doivent pas mesurer la même chose).

 
Maxim Dmitrievsky:

Bon, c'est à chacun son truc, je m'inquiète d'un tel scrupule, en tout cas, l'essentiel c'est que ça marche un certain temps

il s'avère que si vous trouvez une combinaison optimale d'entrées/sorties, même 4 prédicteurs sont suffisants.

en bref, un compromis entre l'efficacité et la consommation de temps est nécessaire

C'est le but, l'essentiel est de le faire fonctionner...

Et pourtant, il s'avère que :

1. Le grand modèle va se surentraîner à cause de l'effet mémoire.

2. Plus la règle (feuille/arbre binaire) a bien fonctionné dans l'historique, moins elle a de chances d'être utilisée en production.

Sinon, vous obtiendrez un tel graphique avec une grande précision et un retour sur l'histoire élevé.

et sur l'échantillon d'examen (disponible sur le graphique) pour le bénéfice de l'année 1000 uniquement (et le tirage des fonds est à peu près le même), et la précision tombe à 58%.

Les tests ont été faits avec une activation de split 1/0 à la "probabilité" 0.6, et à la probabilité 0.5 le profit est autour de 5000 sur la période hors étude, mais sur la période de test autour de 57 et le graphique marche plus, a moins de précision.

Cela signifie-t-il que de bonnes lectures supplémentaires lors de la période de formation sont la garantie d'une reconversion ?

 
Aleksey Vyazmikin:

mais sur la période d'essai dans la région de 57

Cela signifie-t-il qu'une bonne lecture de la période d'entraînement est une garantie de surentraînement ?

Une précision de 57% sur le test est très bonne, voire trop bonne, mais oui, plus la différence entre les résultats sur le fil et sur le test est grande, plus la probabilité d'overfitting est élevée.

 
Le graal:

Une précision de 57% sur le test est très bonne, voire trop bonne, mais oui, plus les résultats sont différents sur le nid et sur le test, plus vous risquez de trop remplir.

Je suppose donc que l'avenir est incertain, et que personne ne peut me dire que vous serez performant sur un échantillon en dehors de la formation.... c'est pourquoi je cherche une sorte de connexion.

Et qu'en est-il de la précision (ce n'est pas de la précision, car elle ne tient pas compte des entrées manquées, celles qui sont classées 0 alors qu'elles auraient dû être 1), ce n'est pas si simple, car le bénéfice n'est pas égal à la perte - le bénéfice peut être plus élevé et vice versa. Il s'avère que oui, le modèle semble fonctionner, mais qu'il n'apporte pas de bénéfices.

 
Aleksey Vyazmikin:

C'est le but, l'essentiel est de le faire fonctionner...

Et pourtant, jusqu'à présent, il s'avère que :

1. Le grand modèle va se surentraîner à cause de l'effet mémoire.

2. Plus la règle (feuille/arbre binaire) a bien fonctionné dans l'historique, moins elle a de chances d'être utilisée en production.

Sinon, vous obtiendrez un tel graphique avec une grande précision et un retour sur l'histoire élevé.

et sur l'échantillon d'examen (disponible sur le graphique) pour le bénéfice de l'année 1000 uniquement (et le tirage des fonds est à peu près le même), et la précision tombe à 58%.

Les tests ont été faits avec une activation de split 1/0 à la "probabilité" 0.6 et à la probabilité 0.5 le profit est autour de 5000 sur la période hors étude, mais sur la période de test autour de 57 et le graphique marche plus, a moins de précision.

Cela signifie-t-il qu'une super bonne lecture de la période d'entraînement est une garantie de surentraînement ?

En règle générale, oui.

plus il y a de signes, plus il y a de surentraînement
 
Graal:

La précision de 57% sur le test est très bonne, voire trop bonne, mais oui, plus les résultats diffèrent sur le firn et sur le test, plus la probabilité d'overfitting est élevée.

certaines personnes pensent que le hasard est bon aussi, allez-y ! )) Le hasard+7% nerendom est mauvais, mais c'est mieux que le hasard.

non c'est pas mauvais, c'est dégoûtant, c'est pas du tout un modèle.

tout le monde apprend les bases de l'apprentissage machine et terver de toute urgence

En particulier, si le graphique se termine à 57%, vous pouvez immédiatement considérer qu'il s'agit de surentraînement, a priori, et ne rien analyser de plus.
 
Maxim Dmitrievsky:

certaines personnes pensent que les randoms sont bons aussi, soyez fous ))) randoms+7% nerandom est mauvais, mais c'est un peu mieux que les randoms

non ce n'est pas mauvais... c'est dégoûtant, ce n'est pas un modèle du tout

tout le monde apprend les bases de l'apprentissage machine et terver de toute urgence.

Quelle est la précision de vos modèles en dehors de la formation ? Et avec quelle période, comment tombe-t-il (change-t-il) ?

J'ai une période hors formation de 10 mois.

 
Aleksey Vyazmikin:

Quelle est la précision de vos modèles maintenant au-delà de l'apprentissage ? Et avec quelle période de temps, comment ce chiffre baisse-t-il (change-t-il) ?

J'ai une période d'arrêt de formation de 10 mois.

10% d'erreur par test et trace pour ~10k exemples, augmente doucement avec l'augmentation

à cette erreur, les modèles ont commencé à travailler sur de nouvelles données

c'est différent sur la validation, je dois essayer de comprendre les options.

Ne plus révéler les algorithmes, mais communiquer