L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 738

 

Les fondations de Michael sont bonnes. Un bon exemple pour ceux qui cherchent un point de départ.

Il a quelques bons indicateurs, je pense même de la bourse, ce qui est déjà mieux que le standard mashka et rsishka. Ensuite, il ne se contente pas d'introduire tous ces éléments dans le réseau neuronal, mais évalue également les indicateurs par différents moyens et sélectionne les plus appropriés pour la prédiction. Ensuite, le neuronka est entraîné, mais pas un simple neuronka, mais un neuronka avec un contrôle d'overfit intégré. Et toute cette stratégie est testée dans le testeur en utilisant la marche avant.

SanSanych a déjà décrit un tel schéma au début de ce fil, et quelqu'un a finalement décidé de l'utiliser. Sinon, de nombreux traders peuvent avoir envie de mettre plus d'indicateurs dans les neurones sans réfléchir.

Je pré-traiterais également les indicateurs par vtreat ou caret. Et un neuronka plus adéquat avec kfold. Et je prendrais plus d'exemples pour la formation, je suis d'accord avec les autres critiques.

 

Je sais, mes frères ! !! Je vais tout vous dire en même temps... Chacun danse dans la mesure de son éducation, mais c'est le résultat final qui règle notre différend. Le résultat, pour ainsi dire. Je gagne jusqu'à présent, car le dépôt augmente. Je sais que mon approche est l'une des plus correctes.

A propos, j'utilise vtreat pour sélectionner les prédicteurs importants + des astuces avec le shuffling.

Ce point sera abordé en détail dans l'article sur les BOO.

 
Mihail Marchukajtes:

Je sais, mes frères ! !! Je vais tout vous dire en même temps... Chacun danse dans la mesure de son éducation, mais c'est le résultat final qui règle notre différend. Le résultat, pour ainsi dire. Je gagne jusqu'à présent, car le dépôt augmente. Je sais que mon approche est l'une des plus correctes.

A propos, j'utilise vtreat pour sélectionner les prédicteurs importants + des astuces avec le shuffling.

L'article sur les BO en parlera en détail.

Plus haut, vous avez parlé d'information mutuelle. Qu'est-ce que ça a à voir avec ça ?

 
SanSanych Fomenko:

Vous avez parlé plus haut d'information mutuelle. Qu'est-ce que ça a à voir avec ça ?

Le critère décisif dans le choix du modèle à utiliser. Il prépare le ditset. Vous vous entraînez 10 fois. Nous obtenons 10 modèles avec les mêmes résultats de formation (à titre d'exemple) où le nombre d'erreurs de formation est le même pour tous les modèles. Ensuite, nous enregistrons les résultats du modèle sur la section de formation, non pas sous forme binaire, mais sous forme de tableau. Le résultat du calcul polynomial est initialement calculé dans dable.......

Ensuite, nous calculons le VI des polynômes par rapport au rendement. On considère que les modèles de travail ont une VI supérieure à l'entropie de sortie ou simplement supérieure à 0,7 approximativement.....

Choisissez un modèle avec un OI élevé, mais pas supérieur à 0,95. Bien que je ne l'aie pas encore vérifié.... IMHO

 

Quant à l'augmentation de l'échantillon de formation. Oui, on peut l'augmenter, mais cela diminuera la qualité du réseau, ce qui entraînera une diminution des transactions. Le réseau commence à fonctionner plus longtemps, mais le nombre d'états "Ne sait pas" augmente et il s'avère que le réseau fonctionne moins souvent. Avec cette approche, il est nécessaire d'entraîner plusieurs modèles et de les exécuter en parallèle.


D'autant plus que la période de formation m'est désormais dictée par vtreat.R. Ce qui, avec mes données d'entrée, me propose des ensembles d'entrées pour différentes longueurs d'échantillon. Je choisis la période d'apprentissage maximale avec le nombre maximal de variables d'entrée qu'il choisit....Et bizarrement, il passe de 20 à 50 échantillons. Apparemment, mes entrées sont comme ça. Qu'est-ce que je peux faire...

 

Mihail Marchukajtes:

...

Un critère décisif pour choisir le modèle à utiliser

...

Je vais essayer de le traduire en MO :

Bien que le modèle soit un modèle de classification, il peut retourner le résultat non seulement en binaire 0 et 1, mais aussi la probabilité d'appartenance à une classe (un nombre fractionnaire de 0 à 1). Par conséquent, le modèle peut être estimé non seulement avec des mesures de classification, mais aussi avec des mesures de régression. Je ne sais pas pourquoi l'information mutuelle a été choisie, mais elle est en bonne corrélation avec le MOC, donc c'est OK.

En R, il peut être calculé comme suit
bibliothèque(entropie)
mi.plugin(rbind(target,prediction))
Ici, plus le résultat est petit, mieux c'est.

 
Jene suis pas sûr de ce que c'est :

Bien sûr, mais en statistique l'erreur (variation) est proportionnelle à 1/sqrt(N) où N est le nombre d'observations, ici tout dépend de la variation initiale, plus elle est grande, plus il faut d'observations pour faire rentrer l'erreur dans le quantile de 5%.

"Cherchez quelqu'un qui en profite" ((c) Lénine)

Seuls les outils inutiles ou même nuisibles sont mis et vendus pour des raisons évidentes, cette vérité triviale doit toujours être gardée à l'esprit, altotrading n'est pas un webdesign ou une autre franchise, c'est un vol fonctionnel direct de l'argent du marché, tout ce qui est ouvert et facilement accessible, encore moins annoncé, a priori ne peut pas être utile dans ce contexte, camelote ou escroquerie, un tel environnement agressif et concurrentiel que nous avons.

Eh bien, oui, le percentile 5 des gains et une abondance infinie d'outils disponibles publiquement est un Klondike.

Et j'ai récemment dû créer un composant de réseau neuronal personnalisé, qui l'a testé trois ordres de grandeur mieux que le DNN astucieux de TensorFlow.

Et surtout, il n'y a pas eu de mathématiques ou de technologies compliquées, mais plutôt une solution simple, mais originale.

Dans ce contexte, l'adhésion de Mikhaïl à la conception de Reshetov ne me surprend pas du tout.

 
Jene sais pas :

C'est ce que je veux dire, juste ça. Si je prélève 40 échantillons dans mon infrastructure, je ne peux pas non plus me porter garant du résultat, et 4000 points, c'est très peu. A moins bien sûr que nous ne parlions de stratégies de combat, et non de stratégies d'articles.

J'adhère à la règle suivante : un EA sur de nouvelles données ne fonctionnera pas pour plus de 10% des barres formées. Si je me suis entraîné sur 4000 barres, cela signifie que cet EA ne fonctionnera pas pour plus de 400 barres. Par exemple, si je veux trader une semaine sur m15, j'ai besoin d'au moins 4800 (4*24*5*10, 10 semaines) barres d'historique pour m'entraîner.

Un jour, MT5 introduira des threads parallèles dans les experts afin de pouvoir optimiser le conseiller expert en arrière-plan et il sera alors possible de mener des expériences intéressantes avec un nombre extrêmement faible de barres et peut-être pourrai-je le faire avec 40 barres. Même si je ne serai probablement pas en mesure de le faire. Même si j'ai moins de 1000 échantillons, le résultat des neurones penche vers la tendance et dès qu'il change, c'est mauvais.

 
Mihail Marchukajtes:

Quant à l'augmentation de l'échantillon de formation. Oui, on peut l'augmenter, mais cela diminuera la qualité du réseau, ce qui entraînera une diminution des transactions. Le réseau commence à fonctionner plus longtemps, mais le nombre d'états "Ne sait pas" augmente et il s'avère que le réseau fonctionne moins souvent. Avec cette approche, il est nécessaire d'entraîner plusieurs modèles et de les exécuter en parallèle.


D'autant plus que la période de formation m'est désormais dictée par vtreat.R. Ce qui, avec mes données d'entrée, me propose des ensembles d'entrées pour différentes longueurs d'échantillon. Je choisis la période d'apprentissage maximale avec le nombre maximal de variables d'entrée qu'il sélectionne....Et bizarrement, il passe de 20 à 50 échantillons. Apparemment, mes entrées sont comme ça. Que pouvez-vous faire...

La qualité du réseau ne diminuera pas, mais il y aura moins d'overfit et votre modèle apparaîtra dans toute sa gloire et sa pauvreté.

Mon neurone de Reshetov opte pour 3 mois pour 1000+ échanges sur 3 fics intelligents, et ça marche pour zéro sur du réel. Et d'autres neurones optimisent encore mieux. Je ne sais pas pourquoi vous continuez à dire de telles bêtises avec vos 100 métiers, vous êtes tellement stupide, votre self-care ou vous voulez prouver quelque chose à quelqu'un ?
 

hmm... bon après-midi !)

Est-ce que le mot "curwafitter" est quelque chose de neuronal ?