L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 488

 
Maxim Dmitrievsky:

Il s'agit de bien choisir les jetons et la cible, même s'il semble qu'il n'y ait rien de plus simple qu'une table de multiplication, mais il n'y a pas de petite erreur non plus...

Je ne peux pas être sûr qu'ils sont corrects, mais s'ils ne le sont pas, vous ne pouvez pas vérifier leur formation, d'où les erreurs.

Avec respect.
 
Andrey Kisselyov:
Je ne peux pas être sûr de l'exactitude de la formation, d'où les erreurs. En forex, au moins d'une manière ou d'une autre, il y a une répétition dans la table de multiplication, pas de répétition.

Avec respect.

Eh bien oui, étant donné que RF est incapable d'extrapoler du tout...

 
Vizard_:

peut...


(Il est dit partout que, comme, ne... )

 
Vizard_:

Vous avez également écrit un hochet)))) Mais vous avez décidé d'en produire un autre.
Mettez-le dans -
х = 1 0 1 0 1 0 1 0 1 0
cible = 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0
alors -
х = 1 0 1 0 1 0 1 0 1 1
cible = 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0
etc...
Sur un exemple interprétable, voir brièvement.
précision, perte, kappa... etc. comme vous voulez. Bien et à juste titre souligné plus tôt -
il y a beaucoup à voir dans la forêt...


OK, si c'est le cas, je termine la stratégie et nous verrons ce qu'il en est :)

 

Salutations aux neuronautes ! Les grands esprits ;))

voici un film sur un neuraliste qui a créé un logiciel superprédictif et a "aidé" une banque à "s'enrichir" .



 
Alexander Ivanov:

Salutations aux neuronautes ! Les grands esprits ;))

il y a un film ici sur un type à neurones qui a créé un moteur de super-prédiction et a "aidé" une banque à "s'enrichir" .




voir "The Texas Chainsaw Massacre", un nouveau film relaxant.

 

Je ne peux m'empêcher de penser qu'un certain nombre de problèmes sont communs aux modèles de classification et de régression.


L'un de ces problèmes est la multicollinéarité, qui est généralement interprétée comme une corrélation entre les variables d'entrée, mais cela peut ne pas être entièrement vrai.


La multicolinéarité au sens général entraîne une conséquence très désagréable qui sape nos efforts de modélisation :

  • les paramètres du modèle deviennent incertains
  • Les erreurs standard d'estimation deviennent infiniment grandes.


Si la multicollinéarité est comprise comme une relation linéaire entre les variables d'entrée (variables explicatives, prédicteurs), nous obtenons l'image suivante

  • bien que les estimations MCO ne soient pas biaisées, elles ont une grande variance et covariance, ce qui rend difficile une estimation précise.
  • Par conséquent, les intervalles de confiance ont tendance à être plus larges. Nous ne pouvons donc pas rejeter l'"hypothèse nulle" (c'est-à-dire que le taux d'échantillonnage réel est égal à zéro),
  • En raison du premier effet de t, le rapport d'un ou plusieurs coefficients tend à être statistiquement non significatif
  • Même si certains coefficients de régression sont statistiquement non significatifs, la valeur R^2 peut être très élevée.
  • Les outils d'estimation MCO et leurs erreurs standard peuvent être sensibles à de petits changements dans les données.


Voici un article qui fournit des outils R pour reconnaître la présence de la multicollinéarité.

Multicollinearity in R
Multicollinearity in R
  • Bidyut Ghosh
  • www.r-bloggers.com
One of the assumptions of Classical Linear Regression Model is that there is no exact collinearity between the explanatory variables. If the explanatory variables are perfectly correlated, you will face with these problems: However, the case of perfect collinearity is very rare in practical cases. Imperfect or less than perfect...
 
SanSanych Fomenko:

Je ne peux m'empêcher de penser qu'un certain nombre de problèmes sont communs aux modèles de classification et de régression.


L'un de ces problèmes est la multicollinéarité, qui est généralement interprétée comme une corrélation entre les variables d'entrée, mais cela peut ne pas être entièrement vrai.


La multicolinéarité au sens général entraîne une conséquence très désagréable qui sape nos efforts de modélisation :

  • les paramètres du modèle deviennent incertains
  • Les erreurs standard d'estimation deviennent infiniment grandes.


Si la multicollinéarité est comprise comme une relation linéaire entre les variables d'entrée (variables explicatives, prédicteurs), nous obtenons l'image suivante

  • bien que les estimations MCO ne soient pas biaisées, elles ont une grande variance et covariance, ce qui rend difficile une estimation précise.
  • Par conséquent, les intervalles de confiance ont tendance à être plus larges. Nous ne pouvons donc pas rejeter l'"hypothèse nulle" (c'est-à-dire que le taux d'échantillonnage réel est égal à zéro),
  • En raison du premier effet de t, le rapport d'un ou plusieurs coefficients tend à être statistiquement non significatif
  • Même si certains coefficients de régression sont statistiquement non significatifs, la valeur R^2 peut être très élevée.
  • Les outils d'estimation MCO et leurs erreurs standard peuvent être sensibles à de petits changements dans les données.


Voici un article qui fournit des outils R pour reconnaître la présence de la multicollinéarité.


merci pour le nouveau mot, déjà glosé plusieurs fois aujourd'hui :)

Quels autres problèmes y a-t-il ?

 

Aujourd'hui j'ai décidé de vérifier, mon réseau basé sur le percetron. Optimisé pour mai-début juin 2016, EURUSD, spread 15 pips.

La queue elle-même.

Je suis toujours confus par le résultat.

 
forexman77:

Aujourd'hui j'ai décidé de vérifier, mon réseau basé sur le percetron. Optimisé pour mai-début juin 2016, EURUSD, spread 15 pips.

La queue elle-même.

Jusqu'à présent, le résultat me laisse perplexe.

Je suis gâté aussi, même en étant un peu choqué. Je l'ai essayé sur des échantillons aléatoires et les résultats sont étonnants. Je n'ai pas encore fait de CT.

Maxim dit que c'est une longue courbe d'apprentissage. J'ai environ 23 heures. Mais même si je le fais une fois tous les 3 mois - quel gâchis).

Et pour 3 mois, c'est suffisant, c'est sûr, je ne l'ai pas testé plus avant.