L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3029
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Dans le contexte auquel je fais référence, il s'agit d'une évaluation par morceaux d'une série de données afin d'identifier un morceau (segment quantique) dont la probabilité d'appartenir à l'une des classes est supérieure de x pour cent à la moyenne de toute la série.
Qu'est-ce que la quantification ?)
Il y a quelques temps, un code a été créé par catbust.
Dans le contexte que je mentionne, il s'agit d'une évaluation par morceaux d'un ensemble de données afin d'identifier un morceau (segment quantique) dont la probabilité d'appartenance à l'une des classes est supérieure de x pour cent à la moyenne de l'ensemble de l'ensemble.
Il y a quelques temps, catbusta a publié un code.
Jetez-y un coup d'œil et vous comprendrez ce qui se passe.
Il y a eu un code il y a quelque temps de la part de catbusta.
C'est compliqué. Trier la colonne et la diviser en 32 parties, par exemple, s'il y a des doublons, alors ils sont tous jetés dans le quantum. Si la colonne n'a que 0 et 1, il y aura 2 quanta, et non 32 (à cause des doublons).Comment se passent la relance et la maximisation des profits ?
Jusqu'à présent, je n'ai pas eu de chance, en particulier pour le bousting). Il faut lisser, de sorte qu'il y ait un gradient et une hessienne. Le profit ne le sera pas, il faut donc réfléchir à la manière de le lisser.
La variante locale de l'arbre unique, dont j'ai parlé ici récemment, me suffit pour l'instant.
Dans le contexte que je mentionne, il s'agit d'une évaluation par morceaux d'une série de données afin d'identifier un morceau (segment quantique) dont la probabilité d'appartenir à l'une des classes est supérieure de x pour cent à la moyenne de toute la série.
En substance, il s'avère qu'un arbre est construit séparément sur chaque prédicteur.
Vous avez besoin d'une certaine douceur, donc vous avez besoin d'un gradient et d'une hessienne. Le bénéfice ne le sera pas, il faut donc réfléchir à la manière de le lisser.
La variante locale de l'arbre unique, dont j'ai parlé ici récemment, me suffit pour l'instant.
Avez-vous regardé la vidéo dont je vous ai donné le lien ?
L'homme y parlait justement de la façon de convertir un arbre non lisse en un arbre lisse via RL.
La sagesse populaire dit qu'on ne peut pas voir la forêt pour les arbres. Je me demande si l'on peut voir un arbre en ramassant des feuilles. Je ne m'interroge pas sur la forêt.
Est-ce le seul algorithme que vous connaissez ? Ou est-ce le plus efficace ? Pourquoi faites-vous une fixation sur cet algorithme ?
C'est une pensée passagère.
Bonne chance
La question est tout à fait pertinente. Pour moi, la réponse est en gros que si les prédicteurs sont homogènes (par exemple, les pixels d'une image ou les N dernières bougies), alors la forme des classes peut être arbitraire, et les règles ne sont donc pas très appropriées. Si les prédicteurs sont hétérogènes (par exemple, le prix et le temps), les classes sont plus susceptibles d'avoir une forme rectangulaire donnée par les règles.
Bien entendu, il n'y a pas de justification claire à cela, il s'agit simplement d'une hypothèse.
Avez-vous regardé la vidéo que j'ai mise en lien ?
Là, l'homme parlait simplement de la façon de convertir des données non lisses en données lisses via RL.
Il s'agit de mathématiques différentes, je pense. Je ne peux pas bien l'expliquer parce que je ne le comprends pas complètement moi-même. Dans bousting, il s'agit du gradient par fonction, mais dans la vidéo, il s'agit du gradient habituel par les poids du réseau.
Plage de données ou plage de valeurs de la fiche ?
La plage de valeurs du prédicteur qui décrit les données.
J'ai pratiquement décrit l'algorithmeici - il y a une image avec RSI.