L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 245
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Je dis simplifier, généraliser, mais vous rendez les choses plus compliquées et détaillées.
C'est ainsi que cela se passe très souvent. Des critères d'information sont utilisés, par exemple Akaika.
Le point est le suivant.
La complexité du modèle est pénalisée. Le résultat de l'optimisation est le choix d'un modèle qui n'est pas le plus précis mais qui est plus simple.
Prenons maintenant un exemple.
Prenons un échantillon de plus de 5000 barres EURUSD sur H1. Construisons une forêt aléatoire. Définissez le nombre maximal d'arbres = 500. Nous visualisons un graphique de l'erreur d'ajustement en fonction du nombre d'arbres. Il apparaît que l'erreur d'ajustement change très peu après 100 arbres. De plus, l'augmentation de l'échantillon n'augmente pas le nombre d'arbres. Et les arbres sont les motifs convoités. Par exemple, l'EURUSD sur H1 contient environ 100 modèles. Mais le modèle est presque toujours surentraîné.
Si nous grossissons le modèle, prenons et réduisons radicalement le nombre maximum d'arbres, par exemple 10, cela peut aider à combattre le surentraînement.
Si vous dégrossissez le modèle, prenez et réduisez drastiquement le nombre maximum d'arbres, par exemple 10, cela peut aider à combattre le surentraînement.
Avec la forêt, le surentraînement ne provient pas du nombre d'arbres, mais de leur profondeur illimitée (complexité du modèle), le nombre réduit les options, et le surentraînement est baes.
Ce que je me demande, c'est.
1. En quoi consiste la formation d'un réseau de neurones en algotrading ?
2. Quels sont les paramètres de dynamique du marché utilisés dans la formation ?
3. Outre la reconnaissance de modèles historiques, le réseau peut-il "apprendre" le caractère spécifique du changement de valeur d'un paramètre au moment présent et réagir en conséquence ?
(par exemple, une montée brusque en forme de vague, ou une descente douce).
Je pense que la nature du changement actuel de la valeur du paramètre n'est pas reconnaissable par le réseau... Peu probable.
Et cela semble prometteur pour la prédiction. Après tout, il suffirait de se souvenir des transitions de ces changements pour pouvoir les prévoir plus tard.
tout se résume à une pièce de monnaie de 50/50 ... une perte de temps.
Non, il y a un peu d'âge. Je vais le dire simplement : vous pouvez extraire beaucoup plus avec le MO que par n'importe quel autre moyen, y compris "l'intuition", il y a des modèles dans le marché, le MO les extrayant le plus efficacement.
J'ai à peine réussi à passer le cap des 0.69(0.68999) hier. C'est ça, je me suis amusé.
C'est génial !
Toutefois, d'accord que 0,69 est le mur que la moyenne standard ne peut que gratter, me rend qu'il n'est pas dans la profondeur de neuronet et pas le nombre d'arbres dans la forêt, ceux qui sont en dessous de 0,6, il ya des trucs que nous ne savons pas et c'est en fait très motivant de ne pas se détendre bun)))
Cool !
Cependant, convenez que 0,69
Quel est le chiffre ? Où puis-je le voir ?
En tant que personne très indirectement liée au MoD, je n'interviens pas dans la discussion, mais je me permets d'exprimer une opinion depuis mon "clocher".
Un réseau neuronal multicouche normal est constitué de neurones. La fonction d'activation d'un neurone est une fonction monotone qui croît de -1 à 1 (ou de 0 à 1, peu importe). À la valeur d'entrée minimale, cette fonction donne le résultat minimal, à la valeur maximale, elle donne le résultat maximal.
Nous formons un réseau neuronal avec N entrées sur un certain segment (nuage d'entrée) dans un espace à N dimensions. Le réseau neuronal n'a aucune idée de ce qu'il faut faire avec les données qui se trouvent en dehors de ce nuage. Mais nous l'alimentons avec ces données et attendons qu'il produise un résultat.
Hee hee. Comme vous êtes malavisés.
Les lunettes en papier se sont révélées être le camouflage parfait contre les réseaux neuronaux
Tag Konow:
3. En plus de reconnaître des modèles sur l'historique, le réseau peut-il "apprendre" la nature spécifique d'un changement de valeur d'un paramètre à un moment donné et y réagir ?
(par exemple, une montée brusque en forme de vague ou une descente douce).
Je pense que le réseau ne reconnaît pas la nature du changement actuel de la valeur du paramètre... Peu probable.
Cela semble prometteur pour la prédiction. Après tout, il suffirait de se souvenir des transitions de ces changements pour pouvoir les anticiper par la suite.
Disons qu'il y a eu une situation anormale sur le marché et qu'il y a eu une flambée des prix. Ou bien le SN, entraîné sur des visages humains, reçoit en entrée une image de lunettes colorées. Les neurones sont surexcités et leur sortie va loin vers la branche gauche ou droite du sigmoïde. Cela signifie qu'à la sortie NS, nous obtenons un signal imprévisible mais très fort.
S'il y a de tels pics dans l'échantillon d'apprentissage (par exemple, 1% de toutes les données), l'algorithme backprop "relâche" tous les poids, tandis que le NS n'a pas le temps d'"apprendre" quoi que ce soit, mais ses performances sont dégradées sur 99% des données "normales".
Il serait bien mieux de ne pas "enfermer" le SN dans des exigences impossibles, mais de lui apprendre à se défendre contre des entrées "anormales". Et ici nous avons, IMHO, deux options.
1. Introduire une ou plusieurs couches de neurones avec une fonction d'activation sous la forme d'une courbe gaussienne au lieu d'une sigmoïde. Un tel neurone produira un résultat proche de 1 dans la plage limitée des entrées, et proche de 0 sur le reste de l'axe numérique.
2) Modifier l'interprétation des sorties NS. Au lieu de l'interprétation binaire habituelle (0 - pas de signal commercial, 1 - signal commercial), nous proposons l'interprétation suivante : 0 - pas de signal, 0,5 - il y a un signal, 1,0 - pas de signal. En cas de mouvements de prix inattendus, la sortie de NS sera proche d'une des valeurs extrêmes - 0 ou 1, et il ne produira pas de faux signaux.
Messieurs les experts, la littérature sur la médecine traditionnelle fait-elle mention de ce genre de choses et les trouvez-vous utiles ? Les commentaires sont les bienvenus.