L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3355

 
Maxim Dmitrievsky #:
J'espérais que quelqu'un irait au moins chercher l'info sur Google.

Même si vous avez des courbes de probabilité dans votre formation, de quelles nouvelles données pouvez-vous parler ? Et Bousting et Forrest pèchent énormément dans ce domaine. Bousting est un excès de confiance, Forrest est un manque de confiance. A condition, bien sûr, que vous ayez l'intention d'utiliser le seuil.

J'ai moi-même observé que lorsque l'on augmente le seuil, la qualité des transactions ne s'améliore pas, même en cas de formation. Alors la probabilité qu'ils rapportent quoi ? Rien :)

D'une certaine manière, vous ne prêtez pas attention à mes messages, qui se concentrent sur les probabilités. Le nom de la probabilité n'a pas d'importance, ce qui compte c'est que si elle ne s'améliore pas, le modèle est surentraîné, dans la poubelle. L'erreur de prédiction sur OOV, OOS et VNU devrait être à peu près la même.

Voici un autre histogramme

Algorithme différent - histogramme différent, bien que les étiquettes et les prédicteurs soient les mêmes. Si vous recherchez une sorte de probabilité théorique, impliquant que différents algorithmes de classification produiront les mêmes histogrammes ... cela ne me semble pas possible, car il faut travailler avec des algorithmes spécifiques qui prédisent et doivent être évalués, et non un quelconque idéal théorique. L'évaluation principale ici est le surajustement du modèle, et non la proximité des probabilités par rapport à un idéal théorique.

 
СанСаныч Фоменко #:

D'une certaine manière, vous ne prêtez pas attention à mes messages, qui se concentrent sur les probabilités. Le nom de la probabilité n'a pas d'importance, ce qui compte c'est que si elle ne s'améliore pas, le modèle est surentraîné, dans la poubelle. L'erreur de prédiction sur OOV, OOS et VNE devrait être à peu près la même.

Un modèle qui sort de la boîte ne donne pas de probabilités correctes, quel que soit le modèle. C'est là toute l'histoire. Les étiquettes prédites peuvent correspondre parfaitement, mais les probabilités ne reflètent pas, ne refléteront pas la probabilité réelle du résultat.
Vous me comprenez ?
 
Maxim Dmitrievsky #:
Le modèle ne donne pas les bonnes probabilités, quelles qu'elles soient. C'est là toute l'histoire. Vous pouvez avoir prédit des étiquettes qui correspondent parfaitement, mais les probabilités ne correspondent pas.
Vous me comprenez ?

J'ai ajouté mon message. Tout modèle donne des probabilités correctes dans le sens où l'erreur de classification ne fluctue pas.

 
СанСаныч Фоменко #:

D'une certaine manière, vous ne prêtez pas attention à mes messages, qui se concentrent sur les probabilités. Le nom de la probabilité n'a pas d'importance, ce qui compte c'est que si elle ne s'améliore pas, le modèle est surentraîné, dans la poubelle. L'erreur de prédiction sur OOV, OOS et VNU devrait être à peu près la même.

Voici un autre histogramme

Algorithme différent - histogramme différent, bien que les étiquettes et les prédicteurs soient les mêmes. Si vous recherchez une sorte de probabilité théorique, impliquant que différents algorithmes de classification produiront les mêmes histogrammes ... Cela ne me semble pas possible, car il faut travailler avec des algorithmes spécifiques, qui prédisent et doivent être évalués, et non avec un idéal théorique. L'évaluation principale ici est le surajustement du modèle, et non la proximité des probabilités par rapport à un idéal théorique.

Vous abandonnez ? Cherchez sur Google l'étalonnage des probabilités de classification, vous devriez le trouver dans R.

Et tracez la courbe de probabilité de votre modèle par rapport à la référence.
 
Maxim Dmitrievsky #:
Vous abandonnez ? Cherchez sur Google le calibrage des probabilités de classification, vous devriez le trouver dans R.
.

Et tracez la courbe de probabilité de votre modèle par rapport à la référence.

Nous parlons de choses différentes.

J'écris sur le résultat, et vous écrivez sur l'idéal des données intermédiaires.

Pour moi, il est évident que les valeurs de probabilité des étiquettes spécifiques données par RF et ada seront différentes, mais que les prédictions d'étiquettes spécifiques sont presque les mêmes. Les valeurs de probabilité ne m'intéressent pas, c'est l'erreur de prédiction qui m'intéresse

Si vous théorisez, il est très probablement impossible d'obtenir la probabilité de classe dans votre sens, puisque vous devez prouver que votre probabilité satisfait le théorème de la limite, ce qui est très douteux.

 
СанСаныч Фоменко #:

Nous parlons de choses différentes.

J'écris sur le résultat, et vous écrivez sur l'idéal des données intermédiaires.

Les valeurs de probabilité de classe données par RF et ada seront différentes, mais les prédictions d'étiquettes spécifiques sont presque les mêmes. Les valeurs de probabilité ne m'intéressent pas, c'est l'erreur de prédiction qui m'intéresse.

Si vous théorisez, il est très probablement impossible d'obtenir la probabilité de classe dans votre sens, puisque vous devez prouver que votre probabilité satisfait le théorème de la limite, ce qui est très douteux.

Néanmoins, la question initiale était là, personne n'y a répondu. Je parle exactement de ce que j'ai demandé.
Il y a donc un objectif à atteindre.
 
Maxim Dmitrievsky #:
Pourtant, la question initiale a été posée et personne n'y a répondu.
Il y a donc quelque chose à attendre.

Pourquoi ? Si dans le sens d'une thèse....

 
СанСаныч Фоменко #:

Pourquoi ? Si dans le sens d'une thèse....

Parce que négocier avec des courbes de probabilité signifie subir des pertes au lieu de réaliser des gains. Tout classificateur doit être calibré s'il s'agit d'une application sensible au risque.
 
Enfin.