Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Retirez-vous. Je l'ai compris.
Il ne reste plus qu'à trouver comment former la DLL.
Aux maths :
Une idée intéressante. Mais. :) Le fait est qu'en raison de l'imperfection humaine, il est intrinsèquement humain d'inventer quelque chose qui fonctionne dans certaines conditions limites.
De la roue pour la terre à la rame pour la mer, en passant par les stratégies de tendances et de flux. Nous construisons nos systèmes à partir de plusieurs sous-systèmes :
La stratégie de trading, le système de filtre qui définit les conditions limites et le sous-système de gestion de l'argent, qui est conçu pour limiter les défaillances des deux premiers.
C'est juste la façon dont nous avons l'habitude de faire. Mais avoir une stratégie (méthode) de trading basée sur les propriétés fondamentales (de base) des prix
rend les autres sous-systèmes "patch" inutiles. Et ce système unique doit être simple.
Malheureusement (ou heureusement), personne ne l'a encore trouvé. Et s'ils l'ont trouvé, nous ne le saurons pas :)
Retour au travail.
Si vous cherchez un modèle, il se trouve dans le prix lui-même.
C'est correct !
Notre principale erreur est d'essayer d'utiliser le calcul différentiel (séries de Taylor, etc.) pour des BP comme la série des prix. Bien sûr, c'est impossible parce que la série de prix n'est pas lisse (la première différence est variable en fonction du signe) et dans cette situation, nous passons à l'étape suivante "ingénieuse" - nous lissons la BP initiale par mooing ou ondelettes et faisons ce que nous voulons avec des séries lisses, en oubliant que cette procédure n'ajoute aucune information utile à ce que nous avons déjà. Nous piétinons en essayant, au sens figuré, de nous tirer du marécage par les cheveux. Vous ne pouvez pas lisser une série de prix et ensuite construire une prévision sur celle-ci (de quelque manière que ce soit) pour obtenir des informations qui n'étaient pas dans la BP originale.
C'est pourquoi la seule façon de ne pas perdre de temps et d'efforts est de travailler avec les séries de prix originales sans utiliser directement ou indirectement les méthodes du calcul différentiel, il est logique, par exemple d'utiliser l'appareil HC, les méthodes de régression etc.
C'est correct !
Notre principale erreur est d'essayer d'utiliser le calcul différentiel (séries de Taylor, etc.) pour une BP de type prix. Bien sûr, c'est impossible parce que la série de prix n'est pas lisse (la première différence est variable en fonction du signe) et dans cette situation, nous passons à l'étape suivante "ingénieuse" - nous lissons la BP initiale par mooing ou ondelettes et faisons ce que nous voulons avec des séries lisses, en oubliant que cette procédure n'ajoute aucune information utile à ce que nous avons déjà. Nous piétinons en essayant, au sens figuré, de nous tirer du marécage par les cheveux. Vous ne pouvez pas lisser une série de prix et ensuite construire une prévision sur celle-ci (de quelque manière que ce soit) pour obtenir des informations qui n'étaient pas dans la BP originale.
Par conséquent, la seule façon de ne pas perdre de temps et d'efforts, est de travailler avec la série de prix originale sans utiliser les méthodes de calcul différentiel directement ou indirectement, il est logique, par exemple, d'utiliser l'appareil de NS, les méthodes de régression, etc.
Personne ne parle d'ajouter des informations aux méthodes de transformation existantes.
Je dis au contraire que la transformation est un moyen de supprimer les informations redondantes et de se concentrer sur la partie utile de celles-ci.
À propos, vous ne pouvez pas former NS sur des données de prix pures. Ils devront toujours être normalisés et lissés d'une manière ou d'une autre. Et c'est déjà une transformation :)
Je ne connais pas les méthodes de régression, je ne vais donc pas les contester.
Je dis au contraire que la conversion est un moyen d'éliminer les informations superflues et de se concentrer sur la partie utile.
À propos, vous ne pouvez pas former NS sur des données de prix pures. Vous devez toujours les normaliser et les lisser d'une manière ou d'une autre. Et c'est déjà une transformation :)
Vous avez raison de le dire.
Au fait, vous pouvez entraîner NS sur n'importe quelles données, la seule question est de savoir combien de temps cela prend... Apprendre, c'est un processus très gourmand en ressources et notre tâche est de préparer les données d'entrée de manière à faciliter la tâche du SN autant que possible, mais en même temps de ne pas la résoudre pour lui :-)
En ce qui concerne le lissage préliminaire des données pour NS, c'est un non-sens, car l'inévitable de cette procédure privera absolument NS de ses qualités de prédiction, plus précisément elle ne lui apportera rien de nouveau. Mais je me répète déjà.
Кстати, НС можно обучить именно что на любых данных, вопрос только - за какое время...
Mais si les données sont bruyantes, l'apprentissage devrait être moins performant, n'est-ce pas ? En outre, les exemples changent au fil du temps. Et si vous choisissez une longue période d'apprentissage, les données seront incohérentes. Le réseau doit être constamment réentraîné à mesure que les règles changent et que les masses réagissent aux événements.
La formation est un processus très gourmand en ressources et notre tâche consiste à préparer les données d'entrée de manière à rendre la tâche aussi facile que possible pour le SN, sans pour autant la résoudre à sa place :-)
Je suis d'accord :)
Quant au pré-lissage des données pour NS, c'est un non-sens, car l'inévitable à cette procédure FS privera absolument NS de ses qualités de prédiction, ou plutôt il ne lui apportera rien de nouveau. Mais je me répète déjà.
Avez-vous vraiment réussi à entraîner le réseau sur des données non lissées et à le faire fonctionner pendant un certain temps en dehors de l'échantillon d'entraînement ?
Mais si les données sont bruyantes, l'apprentissage devrait être moins performant, n'est-ce pas ?
Prenez-vous sur vous de juger où se trouve le bruit et où se trouve l'information utile ? Je ne serais pas aussi sûr de ma connaissance de la vérité, et encore moins de pouvoir résoudre cette noble tâche pour elle.
De plus, les exemples changent avec le temps. Et si vous choisissez une longue période de formation, les données seront incohérentes. Le réseau doit être réentraîné en permanence en fonction de l'évolution des règles et de la réaction des masses aux événements.
Je suis d'accord à 100%.
Avez-vous vraiment pu former le réseau sur les données non lissées et le laisser fonctionner pendant un certain temps au-delà de l'échantillon de formation ?
Je réentraîne le réseau à chaque étape de la prévision (sur chaque échantillon), ou plutôt je ne l'entraîne pas à partir de zéro, je le réentraîne exactement sur les données non lissées.
En ce moment, j'étudie la dépendance de la part des directions de mouvement de prix correctement reconnues (axe des ordonnées) en fonction du nombre d'époques d'entraînement (axe des abscisses). Les données sont données pour une NS non linéaire à deux couches avec 8 neurones dans une couche cachée et 3 entrées. L'ombrage rouge correspond à l'échantillon d'entraînement, l'ombrage bleu à l'échantillon de test, sur des données non entraînées. Chaque point est le résultat du traitement statistique de 100 expériences indépendantes.
J'ai installé Matlab 7.01. C'est très puissant.
J'ai trouvé les ondelettes.
Mais comment charger mon signal dans le système ?
Existe-t-il un convertisseur, par exemple d'un fichier texte vers matlab ?
Pourquoi pas le dernier 77 ? Il a corrigé des bogues, en particulier dans la gestion des dll. J'ai dll de 7.1 hangs périodiquement, j'ai été fatigué de trouver la raison, mais je n'ai pas pu le trouver. Avec 77, cela fonctionne bien, en plus il n'y a pas de dossiers excessifs avec des fichiers. Si vous avez acheté le disque, je vous conseille de le remplacer par la dernière R2008b.
D'après la figure, ai-je raison de supposer que le réseau devine la direction 30 % du temps ?
Avez-vous essayé de travailler avec une collection de filets ? Par exemple avec 3 ou 5 pour affiner la décision.
Ou avec une paire de filets : l'un ne devine que vers le haut, l'autre que vers le bas.
Au fait, pourquoi exactement 3 (ou 5, je suis confus ;) ) neurones d'entrée. Je viens de rencontrer des réseaux à 4, 7 ou 15 entrées :)
p.s.
Une fois, j'ai fait une expérience. J'ai mémorisé tout l'historique que j'avais et j'ai cherché les situations les plus similaires à la situation actuelle.
en utilisant la méthode de la distance vectorielle (vecteurs normalisés, bien sûr). Dans 60% des cas, l'histoire s'est répétée :)
Mais cela dépend toujours de la portée des prévisions et de la longueur du vecteur.
Pourquoi pas le dernier 77 ? Il a corrigé des bogues, en particulier dans la gestion des dll. J'ai dll de 7.1 hangs périodiquement, j'ai été fatigué de trouver la raison, mais je ne pouvais pas le trouver. Avec le 77 cela fonctionne bien, en plus il n'y a pas de dossier excessif avec les fichiers. Si vous l'achetez, je vous conseille de le remplacer par la dernière R2008b.
C'est le premier que j'ai trouvé. Je le remplacerai par le 7.7 plus tard.
Analyse des ondelettes dans la boîte à outils. Le Meyer's est certainement plus approprié que le Dobeshi.
Mais c'est quand même mal parfois. Par exemple, il montre un net maximum au moment de la stagnation avant la remontée :).
Bien que le lancer rapide ait été indiqué par le dernier niveau. C'était au plus bas.
Je veux faire un indicateur à partir du signal synthétisé et de deux détails et voir les dépendances.
Je suis en train de travailler sur la formation de la DLL en ce moment.