L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 472

 
Maxim Dmitrievsky:


en d'autres termes, tout dans mt5 n'a pas encore été testé :)

Je ne comprends pas ça. ( Pourquoi même essayer quelque chose qui est déjà dans MT ?

S'il y a un concept de CT, nous prenons une boîte à outils. S'il y en a un dans MT et qu'il interagit bien avec le reste du système - nous l'utilisons. Il interagit mal - nous utilisons le logiciel externe.

Ce n'est pas du tout razzo d'envoyer des informations dans les deux sens juste pour utiliser la fonctionnalité MT existante.

 
Yuriy Asaulenko:

Je ne comprends pas ça. ( Pourquoi même essayer quelque chose qui est déjà dans MT ?

S'il y a un concept de CT, nous prenons une boîte à outils. S'il y en a un dans MT et qu'il interagit bien avec le reste du système - nous l'utilisons. Il interagit mal - nous utilisons le logiciel externe.

Il n'est pas utile d'envoyer des informations dans les deux sens simplement pour utiliser la fonctionnalité MT existante.

Il n'y a donc jamais de concept prêt à l'emploi dès le départ, tout se fait sur un coup de tête, plus il y a d'outils, mieux c'est...
 
Maxim Dmitrievsky:
Il n'y a donc jamais de concept prêt dès le départ, tout se fait à l'instinct, plus il y a d'outils, mieux c'est.

Je commence par un concept, je l'élabore sur un logiciel (Excel, SciLab, MatLab, R - parfois tous ensemble). Là, je le teste avec mon testeur (je n'ai pas remarqué de différence significative avec le vrai logiciel). Ensuite, j'en transfère une partie vers le terminal, et le reste vers C++/C# et je connecte des bibliothèques externes.

Mes premiers systèmes (depuis 2008) étaient basés sur VBA-Excel, et ils coopéraient parfaitement avec le terminal. Aucun problème de performance, même avec la lenteur de VBA. De toute façon, un retard de 50 ms, même pour 1 TF, ce n'est pas du temps.

 
Il est plus facile de s'abonner à un signal intelligent, mais qui en a besoin ? En général.... !!!!
 
Maxim Dmitrievsky:

Au fait, vous vous souvenez que dans votre article sur le séquençage, vous suggériez de compter plusieurs signaux à la suite, en les retournant... superposition de signaux.

J'ai trouvé une solution intéressante pour mettre en œuvre quelque chose comme cela par le biais de la logique floue et l'intégrer dans le processus d'apprentissage ... Je posterai quelque chose plus tard :)


Ouais ouais c'est juste à partir de cet article..... Peut-être que cela n'a pas été clairement expliqué là-bas, mais personne n'a annulé le fait de la séparation.

Nous devons voir clairement la division entre les bons et les mauvais, si le modèle perd ou gagne régulièrement, c'est déjà un indicateur, l'essentiel est la stabilité de la division, pas sa justesse......

 

SanSanych.

Jetez un coup d'œil à la discussion intéressante sur le "suréquipement".

Bonne chance

Understanding overfitting: an inaccurate meme in Machine Learning
  • www.kdnuggets.com
This post was inspired by a recent post by Andrew Gelman, who defined ‘overfitting’ as follows: Overfitting is when you have a complicated model that gives worse predictions, on average, than a simpler model. Preamble There is a lot of confusion among practitioners regarding the concept of overfitting. It seems like, a kind of an urban legend...
 
Vladimir Perervenko:

SanSanych.

Jetez un coup d'œil à la discussion intéressante sur le "suréquipement".

Bonne chance


Tout ce que j'écris ici et que j'utilise dans ma pratique est une sorte d'astuce pour réduire d'une manière ou d'une autre l'impact du problème de cognition de base, qui est ici appelé overfitting, surentraînement.


Le problème de l'overfitting des modèles n'est PAS résolu en principe, il n'est pas résolu théoriquement et cela est connu depuis très longtemps. Un modèle est toujours une approximation, une grossièreté de la réalité, du monde extérieur. Par conséquent, un modèle reflète TOUJOURS un objet avec une certaine erreur. C'est la force et la faiblesse de tout modèle. Il s'ensuit qu'il est impossible de créer un modèle sans étudier en profondeur l'objet à modéliser.


Si nous prenons un devis.

Qu'est-ce que nous modélisons ?

Dans le cas de la forêt aléatoire, nous automatisons la recherche de modèles.

Si GARCH, alors nous modélisons les caractéristiques statistiques d'une cotation.

Il y aura TOUJOURS une erreur en le faisant. Et j'ai suggéré ici une sorte d'heuristique selon laquelle cette erreur ne devrait PAS changer sur des morceaux successifs de la série temporelle. Si le modèle donne littéralement une erreur différente dans le chunk suivant, alors il est surentraîné (surajusté) et ne peut pas être utilisé en principe.

Pour les forêts aléatoires, j'ai constaté que si vous supprimez les prédicteurs bruyants, le modèle formé donne la même erreur beaucoup plus longtemps qu'avec les prédicteurs bruyants. Mais je ne connais pas de solutions qui permettraient de créer un modèle pour tous les temps, et je n'en ai pas besoin. Je suis d'accord pour ré-entraîner le modèle sur la sortie des dernières données. Mais la formation doit commencer par la vérification des prédicteurs de bruit - leur ensemble change avec le temps. C'est-à-dire que non seulement le modèle lui-même change, mais aussi l'ensemble des données d'entrée. Je faisais des fenêtres le long de séries temporelles, donc sur mes 25 prédicteurs, il y a un échantillonnage constant de 10 à 15 prédicteurs et la composition de ce groupe change, c'est-à-dire que quelque chose se transforme en bruit puis revient. L'erreur est très stable et varie de 23% à 27% = toujours moins de 30%. Si l'erreur est inférieure à 20% sur mes prédicteurs, je n'utilise pas ce modèle et j'attends.


PS.

D'après ce que j'ai dit, vous pouvez voir la raison pour laquelle je ne suis pas intéressé par d'autres modèles.

 
SanSanych Fomenko:

Tout ce que j'écris ici et que j'utilise dans ma pratique est une sorte de technique visant à réduire d'une manière ou d'une autre l'impact du problème fondamental de la cognition, que l'on appelle ici le surajustement, le surapprentissage.


La position est claire.

Bonne chance.

 
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
  • www.frontiersin.org
Clearly, this is a daunting question. The human brain is estimated to have approximately 86 billion neurons (Herculano-Houzel, 2009), and each neuron has tens of thousands of synapses (Andersen, 1990), leading to over one hundred trillion synaptic connections. On top of this astronomical complexity, one needs to map each connection or neuron to...
 
En tant que théorie, c'est intéressant. Mais comment l'utiliser concrètement ? Existe-t-il un logiciel disponible quelque part ?