L'étiquette du marché ou les bonnes manières dans un champ de mines - page 87

 
Neutron писал(а) >>
Je mets cette tâche entre les mains de NS, il décide, sur la base de l'analyse, de l'historique le plus "court" possible (toujours l'historique, que peut-on utiliser d'autre en TA ?), d'ouvrir dans le sens (H+) ou contre (H-).

Alors il ne reste plus grand-chose de la dissertation, n'est-ce pas ?

Et le perceptron, selon vous, e. prédit SEULEMENT la direction.

 
M1kha1l >> :

Alors il ne reste plus grand-chose de la dissertation, n'est-ce pas ?

Et le perceptron, selon vous, e. prédit SEULEMENT la direction.

Nous ne sommes donc pas intéressés par la thèse mais par le profit... Pour la même raison, nous n'avons pas besoin de connaître quoi que ce soit d'autre que la direction (le signe du prochain point de référence).

 

Les patrons de bergers ne sont-ils pas la même chose ?

Quelle différence cela fait-il que vous les analysiez avec des statistiques ou des filets...

 
gpwr писал(а) >>

Mon réseau a reçu 300 exemples d'entraînement et le nombre de poids était de 45. Dans la littérature, on estime qu'avec 5 fois plus d'exemples d'entraînement que de poids, le réseau sera généralisé avec une probabilité de 95%. C'est-à-dire que mon réseau doit avoir une bonne généralisation selon la théorie, mais en fait ce n'est pas le cas. C'est pourquoi j'ai donné des exemples pour le confirmer. Je pense que le but n'est pas de prendre plus d'exemples de formation. Il s'agit de la nature du problème que je force le réseau à résoudre. Si vous essayez de faire en sorte que le réseau prédise la taille de la prochaine étape du prix, il aura tendance, lors de la formation, à utiliser des poids pour lesquels les neurones opèrent dans la zone linéaire de la fonction d'activation, afin de préserver la proportionnalité entre l'étape prédite et les étapes passées en entrée. C'est-à-dire que la tâche elle-même est linéaire. Compte tenu de cet état de fait, l'ajout de neurones cachés n'améliorera rien. Et la couche cachée elle-même devient inutile. En expérimentant avec mon réseau, je suis arrivé à la conclusion qu'une simple couche fonctionne aussi bien qu'une double couche. Je pense, en lisant vos précédents messages dans ce fil, que vous êtes arrivé à la même conclusion pour l'EURUSD également.

Je pense que le réseau devrait être utilisé pour des problèmes hautement non linéaires (comme les problèmes de XOR ou de classification) où la fonction d'activation des neurones peut être choisie pour être décalée.

Si vous n'êtes pas difficile, envoyez-moi (.rar) un échantillon sur lequel vous avez formé NS, échantillon d'environ 10000 exemples. Ou le code qui le formera...

A première vue, dans l'échantillon que vous avez déposé sur le réseau, il existe une forte relation linéaire entre l'entrée et la sortie - le réseau fonctionne donc comme un solveur linéaire...

//----

à propos de l'échantillonnage : il existe un moyen de déterminer un échantillon suffisant pour l'entraînement, mais le réseau (10-21-8-1) peut être réentraîné avec un échantillon de 50 000 ou 100 000 échantillons...

donc c'est mieux de s'entraîner avec une validation croisée...

 
paralocus писал(а) >>

Ce n'est pas la thèse qui nous intéresse, c'est le profit... Pour la même raison, nous n'avons pas besoin de savoir quoi que ce soit, sauf la direction (le signe du prochain comptage).

Et à quelle période pensez-vous que la prévision de la direction des chandeliers a un sens ? Je creuse dans cette même direction (je n'utilise pas de neuronet), les résultats (probabilité de prévisions correctes) sont les suivants m1- 69%, m5- 61%, m15- 58%, m30- 56%, h1- 55%, h4- 51%, d1- 46%, w1- 51%, m1- 58%. Le conseiller basé sur cette méthode se draine au rythme de l'étalement. :/

 
lea >> :

Et sur quelle échelle de temps pensez-vous que la prédiction de la direction des chandeliers a un sens ? Je suis en train de creuser dans cette direction (sans utiliser de neuronet) ; les résultats (probabilités de prédictions correctes) sont les suivants : m1- 69%, m5- 61%, m15- 58%, m30- 56%, h1- 55%, h4- 51%, d1- 46%, w1- 51%, m1- 58%. Le conseiller basé sur cette méthode se draine au rythme de l'étalement. :/

Aucun d'entre eux, à mon avis. >>Les délais sont sortis !

 
paralocus >> :

Je ne pense pas. Les délais, mon cul !

Après tout, tu as hérité du tempérament de ton héros ! Prends ton temps, le temps viendra et tu écriras quelque chose comme ça :

Les tics sont partis !

C'est juste que, chaque chose en son temps...

>> bonne chance ! :о)

 
grasn писал(а) >>

C'est juste que, chaque chose en son temps...

Pendant que mon réseau neuronal rassemble des statistiques (il s'est écrasé plusieurs fois en raison d'une instabilité de convergence avec un grand nombre de neurones dans la couche cachée, j'ai donc dû réintroduire la normalisation du taux de comptage par rapport à la longueur du vecteur de poids), je donnerai mon avis sur l'applicabilité de NS.

J'ai suggéré ci-dessus la capacité du réseau formé à combler les lacunes statistiques du vecteur de formation. Cela permet, à mon avis, d'utiliser efficacement la NS lorsqu'il y a un manque de données d'entraînement. Cependant, la nature s'est avérée être encore plus intéressante... Il semble que la principale spécialisation de NS se situe dans un domaine légèrement différent. Son rôle est de "sortir" une valeur (prédiction) basée sur les valeurs des données d'entrée qui n'ont pas participé à l'apprentissage. C'est compréhensible, mais pensez-y... Il suffit de disposer de quelques points de référence dans la gamme d'entrées NÉCESSAIRES (la gamme de valeurs que prennent les entrées) pour prédire la valeur attendue sur des données d'entrée "légèrement" erronées de manière aussi fiable que possible. Il s'agit de la principale propriété de NS, et le point clé ici est le fait de la continuité de la gamme de valeurs des données d'entrée. C'est là que le pouvoir des NS entre pleinement en jeu.

Que se passera-t-il si les données d'entrée sont discrètes ? Rien de particulier, NS fera l'affaire aussi. Mais nous avons maintenant la possibilité de rassembler des statistiques sur toutes les combinaisons de valeurs discrètes et de faire la même prévision que dans le cas de NS mais sans elle. Mais il ne faut pas oublier que NS le fera beaucoup plus rapidement et plus élégamment (s'il y a beaucoup de valeurs discrètes, mais sinon...). Et, si la discrétisation des valeurs d'entrée est faible, ou si elles ne sont que deux (+/-1), alors, comme il s'avère, NS n'est pas nécessaire ! Il suffit de rassembler des statistiques pour chaque valeur, et rien dans la nature ne donnera une prédiction plus précise que cela.

Pour la prédiction des entrées binaires, il existe des méthodes beaucoup plus efficaces que NS. Cela ne diminue pas les mérites de NS, mais il est fascinant de voir comment la prédiction de BP est réduite à une prédiction binaire !

La figure montre l'éventail des états qu'une SN binaire à deux entrées accepte. Le nombre de combinaisons que peuvent prendre les valeurs d'entrée n'est que de 4. Et pour chacun d'entre eux, nous devons prendre une décision d'achat ou de vente. La NS n'est pas nécessaire ici ! Nous avons besoin des statistiques triviales. Pour 3 NS d'entrée, nous obtenons un cube tridimensionnel avec 8 sommets, dans chacun desquels se trouve le même Achat/Vente, etc.

Encore une fois, je ne minimise pas les mérites de NS. Par exemple, si nous prévoyons la population de daphnies dans un étang, qui dépend d'une centaine de facteurs (acidité de l'eau, température, etc.), nous ne pouvons pas faire de prévisions fiables en modifiant un ou deux paramètres de 1 % sans NS - nous nous retrouverons sûrement dans un domaine où il n'y a pas de statistiques du tout ou qui ne se prête pas à l'interpolation.

 
Neutron >> :
...

On dirait un verdict.... comme un "verdict", par exemple à Minsky, qui a démontré les graves limites des perceptrons, et qui, dans la poursuite de l'argent, est simplement oublié. Ils oublient également que même un réseau multicouche avec une initialisation non linéaire ne donne absolument aucune garantie de classification correcte, et ils oublient aussi ... (mais c'est une blague, pas le début d'une autre dispute). J'avoue que je n'ai toujours pas compris ce qu'est la puissance de NS à partir de votre post, mais mon expérience en construisant à la fois mon propre et en utilisant des moyens spécialisés de NS donne une réponse simple et claire - l'utilisation du perceptron ne donne aucun avantage, en particulier - sur les "mauvaises" lignes (vos kags sont de très mauvaises lignes pour la prédiction).


Mais bonne chance quand même. A plus tard, (je vais disparaître pendant quelques semaines).

 
Si quelqu'un est intéressé, il y a un historique complet pour les futures disponible sur FORTS. Elle a plusieurs années d'existence.