L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3038
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Je ne suis pas vraiment fan non plus, mais Alexei dit que ça marche.
La question est de savoir pourquoi il ne l'utilise pas ) apparemment il n'est pas très satisfait du résultat.
Il s'avère que des règles ont été sélectionnées, mais nous devons comprendre que certaines d'entre elles ne fonctionnent pas de manière constante d'une année à l'autre, que certaines cessent de fonctionner du tout, et que l'autre partie continue de fonctionner de manière constante.
Bien sûr, nous nous intéressons à celles qui continuent à fonctionner - ce qui les distingue des autres, c'est le mystère qui améliorera de manière significative toute TS.
C'est exactement ce que j'essaie de faire pour augmenter potentiellement le nombre de bonnes règles, en sélectionnant un nombre limité de sections de prédicteurs pour elles. Pour ce faire, nous devons identifier les domaines de performance "stables" de chaque prédicteur qui sera utilisé pour créer des règles. C'est la tâche qui m'intéresse actuellement.
Je n'ai pas expérimenté d'autres cibles, car je cherche un moyen moins coûteux que celui que j'ai utilisé pour extraire ces règles.
Ai-je bien compris que vous avez décidé de ne pas faire de collaboration pour comparer les deux méthodes ?
Il s'avère que des règles sont sélectionnées, mais nous devons nous rendre compte que certaines d'entre elles ne fonctionnent pas de manière constante d'une année à l'autre, que certaines ne fonctionnent plus du tout et que l'autre partie continue à fonctionner de manière constante.
Bien entendu, nous nous intéressons à celles qui continuent à fonctionner - ce qui les distingue des autres, c'est le mystère qui améliorera considérablement toute TS.
C'est exactement ce que j'essaie de faire pour augmenter potentiellement le nombre de bonnes règles, en sélectionnant un nombre limité de sections de prédicteurs pour elles. Pour ce faire, nous devons identifier les domaines de performance "stables" de chaque prédicteur qui sera utilisé pour créer des règles. C'est la tâche qui m'intéresse actuellement.
Je n'ai pas expérimenté d'autres cibles, car je cherche un moyen moins coûteux d'extraire ces règles.
Ai-je bien compris que vous avez décidé de ne pas faire de collaboration pour comparer les deux méthodes ?
Je pense le faire en automatique pour l'instant.
Il s'avère que des règles ont été sélectionnées, mais nous devons nous rendre compte que certaines d'entre elles ne fonctionnent pas de manière constante d'une année à l'autre, que certaines ne fonctionnent plus du tout, et que l' autre partie continue à fonctionner de manière constante.
En réalité, si nous prenons 1000 CT au hasard, nous aurons exactement les mêmes résultats.
De plus, si nous constituons un autre échantillon pour le test, un quatrième type - Train-Test-Valid-Test2.
nous constatons alors que "l'autre partie continue à fonctionner régulièrement".
exactement la même chose ne fonctionnera pas ))
Tout est aléatoire, et le modèle trouvé est en fait aléatoire.
la vérité est que si vous prenez 1 000 CT au hasard, vous obtenez exactement les mêmes résultats.
De plus, si nous créons un autre échantillon pour le test, nous obtenons un quatrième type - Train-Test-Valid-Test2.
vous constaterez que "l'autre partie continue de fonctionner régulièrement".
ne fonctionnera pas de la même manière ))
Tout est aléatoire, et le modèle que vous trouvez est en fait aléatoire.
J'ai entraîné 10000 modèles et je sais que ce n'est pas le cas - la plupart d'entre eux cessent de fonctionner sur de nouvelles données.
Et les feuilles - oui, vous n'avez pas lu attentivement apparemment - j'ai écrit que j'ai formé sur des données de 2014 à 2019 (quelques mois), y compris la validation, et j'ai montré comment ils fonctionnaient en 2021 - c'est-à-dire qu'il s'agissait d'un test honnête, sans regarder vers l'avenir - avec un bénéfice de 50 %.
Peut-être que tout est aléatoire, mais chaque aléa a une cyclicité selon laquelle il se trouve ne pas être aléatoire :)
J'ai formé 10000 modèles et je sais que ce n'est pas le cas - la plupart d'entre eux cessent de fonctionner sur de nouvelles données.
Et les feuilles - oui, vous n'avez pas lu attentivement apparemment - j'ai écrit que j'ai formé sur des données de 2014 à 2019 (quelques mois), y compris la validation, et j'ai montré comment ils fonctionnaient en 2021 - c'est-à-dire qu'il s'agissait d'un test honnête, sans regarder vers l'avenir - avec un bénéfice de 50 %.
Peut-être que tout est aléatoire, mais chaque aléatoire a une cyclicité, selon laquelle il n'est pas aléatoire :)
Par exemple, si vous obtenez un état stable via FF, il caractérisera un état stable de TC ? Tout le monde se rend compte qu'il s'agit d'un kurwafitting
Le FF doit décrire les règles d'un TC stable. Si la CT s'avère instable, alors les règles de la FF sont erronées.
Le problème est que personne n'a encore réussi à trouver de telles règles pour le FF (je ne les ai pas vues, du moins). Il y a deux façons de procéder : soit simplifier le TS pour qu'il ait le moins de degrés de liberté possible, ce qui signifie qu'il a plus de chances d'être stable en drainant ou en versant, soit trouver des règles pour le FF, ce qui est une façon plus compliquée.
En général, il n'y a pas d'ensemble universel d'actions pour un constructeur de graal. Il y a une troisième voie - la création d'une IA flexible et auto-apprenante comme ChatGPT, mais même dans ce cas, il y a une FF qui est utilisée pour la formation. Je voulais dire une chose : la FF sera toujours présente sous une forme ou une autre, il n'y a aucun moyen de s'en débarrasser.
Le problème ne réside pas dans la construction d'une TS stable, mais dans les caractéristiques descriptives introduites dans la FF.
Le FF devrait décrire les règles d'un CT stable. Si la CT s'avère instable, les règles du FF sont erronées.
Le problème est que personne n'a réussi à trouver de telles règles pour les FF (du moins, je ne les ai pas vues). Il y a deux possibilités : soit simplifier le TS pour qu'il ait le moins de degrés de liberté possible, ce qui signifie qu'il est plus probable qu'il soit stable en drainant ou en versant, soit trouver des règles pour les FF, ce qui est une méthode plus compliquée.
En général, il n'y a pas d'ensemble universel d'actions pour un constructeur de graal. Il y a une troisième voie - la création d'une IA flexible et auto-apprenante comme ChatGPT, mais même dans ce cas, il y a une FF qui est utilisée pour la formation. Je voulais dire une chose : la FF sera toujours présente sous une forme ou une autre, il n'y a aucun moyen de s'en débarrasser.
Le problème ne réside pas dans la construction d'une TS stable, mais dans les caractéristiques descriptives qui sont intégrées dans la FF.
Raisonnement tout à fait correct et compétent, contradictoire bien sûr - "... pas dans la construction d'un TS durable", juste dans la technologie de construction/sélection/évolution de TS durablement rentables et nous nous efforçons d'y parvenir.
Le FF devrait décrire les règles d'un CT stable. Si la CT s'avère instable, les règles du FF sont erronées .
Le FF ne peut résoudre aucun problème par définition. Soit il y a TELLEMENT de choses à améliorer par unité de pourcentage, soit il n'y en a pas. On ne peut pas améliorer des déchets, on a beau creuser dans les déchets, les déchets resteront des déchets.
Par conséquent, les considérations initiales sur la relation entre la cible et les prédicteurs sont initiales . En outre, une évaluation quantitative de cette relation est nécessaire et, qui plus est, pas seulement une évaluation de la relation, mais une évaluation quantitative de la capacité des prédicteurs à prédire les valeurs futures de la variable cible (l'enseignant). Il n'y a pas de place pour les FF dans cette chaîne de raisonnement, de sorte que l'on peut carrément prendre/choisir un algorithme de MO, comme il en existe des centaines, et les utiliser comme des boîtes noires sans essayer d'"améliorer" quoi que ce soit dans les algorithmes spécifiques.
En outre, les classes de FF sont une chose délicate - l'odeur de l'adaptation excessive à l'histoire est trop forte.
Exactement, aucun. On ne comprend pas très bien pourquoi vous continuez à vanter les mérites des 20 %...
Ni les 20 %, ni les 8 %, ni les 50 % ne signifient quoi que ce soit. Les chiffres ne veulent rien dire.
L'équilibre est intéressant. Pas de graphique ?
Vous avez une colonne appelée erreur de classification, or la classification n'est pas pertinente.
C'est impossible à comprendre. J'aimerais pouvoir le faire.
Peut-être pourriez-vous énoncer vos résultats plus clairement ?