L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1075
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Oui, j'ai compris... As-tu copié le code ?
Ensuite, nous discuterons...
oui, vous pouvez supprimer
Veuillez lire les premières lignes dans la section des commentaires du code, puis allez dans la section du code ... J'espère que vous comprendrez...
Ensuite, ce que nous devons changer est d'ajouter un autre tableau dynamique où vous apprenez le RDF et le passer à la fonction "CalculateNeuron (double a, int b)" comme :
Quelque chose comme ça :
Ensuite, copier le tableau best_features[] vers le tableau inputs [] par ArrayCopy()...
Le reste devrait être simple :)))
Ainsi, en fonction de la valeur dynamique des composants de la fonction de base, la fonction renverra les caractéristiques transformées et recyclera le RDF à nouveau et appellera à nouveau la fonction et ainsi de suite......
Pas RDF, RF.
nope, RDF http://www.alglib.net/dataanalysis/decisionforest.php
L'algorithme RDF est une modification de l'algorithme Random Forest original conçu par Leo Breiman et Adele Cutler. Deux idées sont combinées dans cet algorithme : l'utilisation d'un comité d'arbres de décision dont le résultat est obtenu par vote, et l'idée de randomisation du processus de formation.oui... mais le code est trop gros avec "case", je pense qu'on peut l'implémenter beaucoup plus court... alors attendez un peu que je finisse mon code, s'il est mauvais alors continuez avec le vôtre ^)
Oui, c'est exactement ce qu'est la meilleure fonction de base de GMDH selon wikipedia que vous pouvez vérifier :))))...après de nombreuses recherches, je n'ai pas pu trouver de meilleure solution. .................
Mais une seule condition sera exécutée pour chaque étape et donc, le code restant ne sera pas exécuté après l'instruction break :
Je suppose donc que l'apprentissage pourrait être lent... je ne sais pas... si c'est le cas, nous pouvons limiter la valeur maximale des composants à 3 ou 4 en utilisant une autre variable d'entrée de sorte qu'elle décompose les caractéristiques en 3 ou 4 composants et pas plus.
Comme je l'ai déjà dit, le GMDH lui-même agit comme un réseau neuronal et donc, nous utilisons maintenant un double réseau neuronal, un GMDH et un RDF ensemble :)))).
Il a décidé de faire une blague et de réduire l'apprentissage de la machine à l'apprentissage du code, à vue de nez - bon débarras pour lui, et il semble que votre ami très actif aurait besoin d'un peu d'éducation aussi...))
Je ne suis même pas arrivé à votre P-net, d'ailleurs est-il très différent de PNN ?
Je me suis renseigné sur PNN, c'est un putain de Graal.
je ne me souviens pas de quel PNN il s'agit, mais la recherche donne PNN-Soft B2B services de programmation pour les entreprises, mais je pense pour sûr que notre p-net est différent
il s'agit au fond d'une idée très simple, mais originale ;))
C'est vrai, mais nous n'avons pas besoin de 2 NN, nous avons juste besoin d'un bon sélecteur de fonctions, donc ce ne doit pas être un gmdh complet.
donc ma mise en œuvre s'en rapprocheExactement...il n'est pas obligatoire pour nous d'utiliser une formule ou des méthodes exactes de GMDH ou RDF ou RF etc...tout ce que nous cherchons c'est des résultats finaux :)))))))))
Ce que je cherche, c'est :
1.Formation rapide avec des données antérieures
2. sélection rapide des caractéristiques pendant le trading en direct pour une exécution rapide des transactions.
3. convergence de l'algorithme vers une solution lors d'entraînements répétés
4. une grande précision et un faible drawdown pendant le trading.
Maintenant, répondre à tous les points est généralement difficile à réaliser dans MQL5, mais votre mise en œuvre actuelle semble répondre à la plupart des points ... mais un équilibre approprié de tous les 4 critères doivent être effectués en utilisant un réglage fin de l'algo ...
Par exemple, si nous augmentons le nombre de caractéristiques à un niveau élevé, je constate une certaine amélioration des résultats, mais le temps de formation augmente également de manière significative...
NN probabiliste, il construit des arbres de caractéristiques avec des polynômes de type MGUA et utilise ces polynômes à la place des sigmoïdes.
https://en.wikipedia.org/wiki/Probabilistic_neural_network
et quelques trucs bayésiens aussi... beaucoup plus rapide que MLP aussi.
Ouais, je suis toujours confus sur le mouvement. J'avais à l'esprit un polynôme NA
Je pense que nous pouvons utiliser PNN, RDF et GMDH ensemble dans votre code : )))).
La logique de PNN semble excellente !!!...PNN semble agir comme un neurone d'un cerveau humain...je veux dire un processus de prise de décision rapide...donc si vous utilisez une déclaration break dans chaque boucle for de ma logique probablement cela fonctionnera comme un PNN....
Je veux dire que nous n'allons pas jusqu'à la fin de chaque boucle for... mais il vérifiera le temps de retard en utilisant la fonction TickCount() et s'il est supérieur à 2 à 5 ms, alors il interrompra la boucle et continuera avec la décision RDF suivante....
Je viens de regarder PNN...alors ne me demandez pas d'écrire le code de PNN à nouveau :))))))))))))))))))))))))))))
Nécessité d'implémenter également différentes fonctions de transformation de base - algébrique, triginométrique, polynômes orthogonaux
Je pense que nous pouvons utiliser PNN dans ma logique GMDH actuelle pour accélérer le processus de décision... Je ne suis pas sûr...mais je viens de regarder la logique et donc ne me dites pas d'écrire le code de PNN maintenant :))))