L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2976

 
Forester #:

Peut-être, mais je ne vois pas de poisson là-dedans. Je n'utilise pas du tout la quantification. Je préfère explorer les données flottantes.

Si j'ai bien compris, la "quantification" (histogrammes) est utilisée dans le bousting pour accélérer le processus, de sorte qu'il y ait moins de variantes pour les splits. Si c'est le cas, la solution est bonne pour son universalité, mais peut être mauvaise dans un cas particulier - la limite réelle peut être perdue.

 
Aleksey Nikolayev #:

Si j'ai bien compris, la "quantification" (histogrammes) est utilisée dans le bousting pour accélérer le processus, de sorte qu'il y ait moins de variantes pour les divisions. Si c'est le cas, la solution est bonne pour son universalité, mais peut être mauvaise dans un cas particulier - la limite réelle peut être perdue.

Oui, c'est exact. La solution est plus rapide et peut être attribuée à la régularisation. Mais elle perd aussi la division exacte.

 
Forester #:

Peut-être, mais je ne vois pas de poisson là-dedans. Je n'utilise pas du tout la quantification. Je préfère explorer les données flottantes.

Je suis désolé que vous ne me croyiez pas.

Je peux démontrer l'efficacité sur votre échantillon, comparer la courbe d'apprentissage.

 
Forester #:

Oui, c'est exact. Il s'accélère et peut être attribué à la régularisation. Mais il perd aussi la division exacte.

La répartition exacte dépend de l'historique. Si l'on connaît la nature de la distribution des valeurs prédictives, la quantification peut sélectionner exactement la fourchette dont le comportement est caractéristique et stable. Pour le commerce, c'est tout à fait pertinent.

 
Aleksey Vyazmikin #:

Répartition précise sur l'historique. Si l'on connaît la nature de la distribution des valeurs prédictives, la quantification peut sélectionner exactement la fourchette présentant un comportement stable caractéristique. Pour le commerce, c'est tout à fait pertinent.

L'apprentissage par arbre résout la tâche de recherche de fourchettes/divisions. Il existe au moins une formule significative séparant les lignes par rapport à l'objectif.
Dans la quantification, il s'agit simplement d'un compteur + le saut des doubles. La quantification s'effectue sans vérification de la fonction cible.
.

Si un arbre avec entraînement sur la cible ne donne pas de stabilité (ou donne une stabilité très faible), comment un compteur qui n'a aucune relation avec la cible en donnera-t-il ? Seulement des segments aléatoires et parfois aléatoirement bons, qui avec le temps cesseront de l'être.

 
Forester #:
La tâche de recherche d'intervalles/divisions est résolue par un arbre au cours de la formation. Au moins, il existe une formule significative séparant les lignes par rapport à la cible.
Dans la quantification, il s'agit simplement d'un compteur + le saut des doubles. La quantification se produit sans aucune vérification de la fonction cible.
.

Si un arbre avec entraînement sur la cible ne donne pas de stabilité (ou donne une stabilité très faible), comment un compteur qui n'a aucune relation avec la cible en donnera-t-il ? Seulement des segments aléatoires et parfois aléatoirement bons, qui avec le temps cesseront de l'être.

Des tables de quant doivent être sélectionnées pour chaque prédicteur. En supposant qu'un hasard chanceux soit atteint, c'est ce que je veux identifier. Qu'il soit aléatoire ou non. Ce n'est pas fiable à 100 %, mais même en éliminant 30 % d'aléa, on peut améliorer la qualité du modèle formé.

Je suis en train de développer ma fonction d'estimation fractionnée (algorithme), qui devrait réduire l'inconvénient des arbres - l'avidité.

C'est étrange, bien sûr, je travaille sur ce sujet depuis des années, j'ai fait beaucoup d'expériences avec différents échantillons, j'ai des statistiques sur l'efficacité de l'approche, je dis que la méthode fonctionne, mais je me heurte à la méfiance.

 
Aleksey Vyazmikin #:

Des tables quantiques doivent être sélectionnées pour chaque prédicteur. Supposons qu'un hasard chanceux frappe - c'est ce que je veux détecter. Aléatoire ou non.

Comment cela peut-il ne pas être aléatoire par rapport à la cible si la cible n'est pas impliquée dans le choix du point de quantification ? Seulement aléatoire.

 
Forester #:

Comment ne pas être aléatoire par rapport à la cible, si la cible n'est pas impliquée dans le choix du point de quantification ? Seulement aléatoire.

C'est aléatoire, mais le modèle n'est pas aléatoire. C'est-à-dire qu'il persistera dans le futur. L'estimation tient compte de la même cible.

D'autre part, personne n'empêche de diviser plus précisément et immédiatement le prédicteur en segments quantiques en tenant compte de la cible.
 
Aleksey Vyazmikin #:
D'autre part, personne n'empêche de diviser le prédicteur de manière plus précise en une seule fois en segments quantiques en tenant compte de la cible.

C'est la tâche de l'arbre de trouver le meilleur point de division, de sorte que la pureté des classes des sections droite et gauche de la cible soit maximisée.

Voulez-vous estimer la pureté pendant la quantification ? Essentiellement, vous voulez faire la même chose que ce que l'arbre fera plus tard. Désactivez la quantification et vous obtiendrez ce que vous voulez. L'arbre choisira le meilleur point de séparation en fonction de la cible.

 
Forester #:

L'arbre a pour tâche de trouver le meilleur point de séparation, de manière à maximiser la pureté des classes cibles de droite et de gauche.

Vous voulez estimer la pureté pendant la quantification ? En fait, vous voulez faire la même chose que ce que l'arbre fera plus tard. Désactivez la quantification et vous obtiendrez ce que vous voulez. L'arbre choisira le meilleur point de séparation en fonction de la cible.

Fatigué d'expliquer que "meilleur" n'est souvent pas le meilleur choix.

Au lieu de questions - déclarations - comme si nous faisions de la religion....