Ce ne sont pas les affaires de Mashka ! - page 5

 
Neutron:

C'est ce que vous obtenez si les entrées de l'additionneur plongent non pas dans les mashups en retard, mais dans lui-même :-) c'est-à-dire dans la dérivée première de la MA idéale.

Il ne reste plus qu'à trouver le MA idéal. Essayez le vrai Djuric. Ce n'est pas l'idéal, mais ça s'en rapproche. Et c'est aussi très doux.

 
Neutron:

Oh, comme c'est intéressant !

C'est ce que l'on obtient, si l'on fait passer les entrées de l'additionneur non pas par les masses en retard, mais par lui-même :-) c'est-à-dire par la dérivée première de la MA idéale.

Et pourquoi personne ne demande à préciser ? :) Est-ce que tout est clair pour tout le monde ?

Il n'y a pas de mash-ups parfaits sur le bar actuel. Il pourrait vraiment y avoir leurs prédictions. Est-ce qu'on parle d'eux ?

 
Neutron:

à Vinin

Donnez-moi votre avis - il y aura une suite !


Je suis un lecteur depuis longtemps, malheureusement. C'est pourquoi je ne peux rien vous offrir. Mais le thème est vraiment intéressant. Je vous demande pardon.

 
lna01:
Neutron:

Oh, comme c'est intéressant !

C'est ce que l'on obtient, si l'on fait passer les entrées de l'additionneur non pas par les moûts décalés, mais par lui-même :-) c'est-à-dire par la dérivée première de l'EM idéal.

Et pourquoi personne ne demande à préciser ? :) Est-ce que tout est clair pour tout le monde ?

Il n'y a pas de Ma idéal sur la barre actuelle. Il se peut en effet qu'il y ait des prédictions. Est-ce qu'on parle d'eux ?

Non, je parle de la prévision de la largeur de la fenêtre de lissage pour la vague parfaite. Je vous rappelle qu'elle oscille vraiment sur le bord droit de la BP avec une zone de lissage typique juste de la largeur de cette même fenêtre.


J'ai trouvé une erreur dans le code - j'ai manqué une ligne sans corriger l'indice, en conséquence la prévision a été construite en utilisant les poids comptés pour la fenêtre arrière multipliés par la valeur actuelle du Ma idéal. Voici le résultat corrigé (voir fig.). Les poids sont multipliés par le МАWA (je veux dire sa dérivée) une fenêtre plus tôt.


Il s'agit d'une prévision pour 5 barres à venir. Comme on pouvait s'y attendre, la courbe des prévisions s'est effondrée avec succès dès le début. Augmenter le nombre d'équations au-delà de 2 (j'ai vérifié jusqu'à une centaine) ne donne pas d'amélioration significative.


P.S. Je suis soulagé !


à Vinin

Je suis malheureusement devenu un lecteur depuis longtemps. C'est pourquoi je ne peux rien vous offrir. Et le sujet est vraiment intéressant. Je vous demande pardon.

Eh bien, comment charger les neurones pour ce cas. N'est-ce pas faible ?

Soudain, la non-linéarité a priori de la NS née dans au moins deux couches cachées va faire un miracle...

 
Neutron:

à Vinin.

Je suis un lecteur depuis longtemps, malheureusement. C'est pourquoi je ne peux rien vous offrir. Mais le sujet est vraiment intéressant. Excusez-moi.

Eh bien, comment charger les neurones pour ce cas. N'est-ce pas faible ?

Et si la non-linéarité a priori du SN, née dans au moins deux couches cachées, pouvait faire un miracle...

Bien sûr, il est possible de fabriquer un neurone. Mais ce n'est pas seulement une question de neurones. Il est nécessaire de définir les entrées, et je ne le vois pas encore.

 

Il n'y a pas de problème avec les entrées. L'essentiel est de déterminer l'intervalle de confiance pour la négociation.

Parfois, le système fonctionne pendant six mois, puis perd brusquement de l'argent, mais parfois même plus tôt.....

 
Neutron:

J'ai trouvé une erreur dans le code - j'ai manqué une ligne sans corriger l'indice, en conséquence, la prévision était basée sur les pondérations calculées il y a une fenêtre, multipliées par la valeur actuelle de la MA idéale. Voici le résultat corrigé (voir fig.). Les poids sont multipliés par le МАWA (je veux dire sa dérivée) une fenêtre plus tôt.


Il s'agit d'une prévision pour 5 barres à venir. Comme on pouvait s'y attendre, la courbe des prévisions s'est effondrée avec succès dès le début. Augmenter le nombre d'équations au-delà de 2 (j'ai vérifié jusqu'à une centaine) ne donne aucune amélioration significative.


Seryoga, c'est une très mauvaise prévision, les méthodes autocorr-i font une prévision légèrement meilleure. Vous ferez de grosses erreurs quand vous irez à la BP.

 
grasn:

Seryoga, c'est une très mauvaise prévision, les méthodes autocorr-i font une prévision légèrement meilleure. Vous aurez d'énormes erreurs quand vous irez chez BP.

Si vous faites référence à des modèles linéaires autorégressifs de la forme :

alors je ne suis pas d'accord. Le fait est que je résous presque le même problème (comparer : x[n+1]=SUM{w[i]*x[n-i]}, où i=0...P-1), la seule différence étant que les poids sous le signe de la somme sont déterminés de manière adaptative à la profondeur P, alors que dans la forme classique - de manière intégrale à une échelle plus grande (pour l'ensemble statistique lors du calcul des coefficients de corrélation). Le fait qu'il n'y ait pas de résultat ne fait que renforcer mon désir de passer à l'analyse par des méthodes non linéaires, notamment en utilisant NS.

Concernant le cas d'une extrapolation parfaite de Mach (vous avez cité un graphique), je pense que l'on peut augmenter significativement l'horizon de prévision par la conservation des dérivées d'ordre n à partir de LPF, où n doit être supérieur à 2. Dans mon cas, seule la dérivée première était stockée, c'est pourquoi lorsque l'horizon a été augmenté au-delà de 2-3 barres, la série a commencé à s'effriter.

 
Neutron:
grasn:

Seryoga, c'est une très mauvaise prévision, les méthodes autocorr-i font une prévision légèrement meilleure. Vous aurez d'énormes erreurs quand vous irez chez BP.

Si vous faites référence à des modèles linéaires autorégressifs de la forme :

alors je ne suis pas d'accord. Le fait est que je résous presque le même problème (comparer : x[n+1]=SUM{w[i]*x[n-i]}, où i=0...P-1), la seule différence étant que les poids sous le signe de la somme sont déterminés de manière adaptative à la profondeur P, alors que dans la forme classique - de manière intégrale à une échelle plus grande (pour l'ensemble statistique lors du calcul des coefficients de corrélation). Le fait qu'il n'y ait pas de résultat ne fait que renforcer mon désir de passer à l'analyse par des méthodes non linéaires, notamment en utilisant NS.

Concernant le cas d'une extrapolation parfaite de Mach (vous avez cité un graphique), je pense que l'on peut augmenter significativement l'horizon de prévision par la conservation des dérivées d'ordre n à partir de LPF, où n doit être supérieur à 2. Dans mon cas, seule la dérivée première est conservée, c'est pourquoi lorsque l'horizon est supérieur à 2-3 mesures, la série commence à s'effondrer.




Serega, et où seul l'additionneur à coefficients n'est pas utilisé. On peut donc dire que vous avez un réseau neuronal, même s'il est petit. Comparons votre modèle et le mien, il suffit de penser aux critères. Je vais utiliser predict() dans MatCAD, et vous utilisez votre système. Nous avons le même environnement de développement, donc définissons le fichier de données (cotation, processus testé - clôture, moyenne ou autre..., zone de test). Nous ne testons que les prévisions de la MA, la MA elle-même est sélectionnée de manière adaptative - peu importe comment, seul le résultat final est important. Nous le testons sur chaque échantillon, ce qui augmente la validité statistique (il semble y avoir suffisamment de données).


Mais mon horizon de prévision est sélectionné de manière adaptative et prend des valeurs dans les limites spécifiées précédemment. Voici un exemple de ma prévision MA pour quatre lectures à venir :


[aucune erreur].


Essayons de comparer. Et si oui, quelles sont vos suggestions de critères, de préférence un seul chiffre correspondant à un seul comptage, je pense que ce sera plus facile à comparer.


PS: Fixons l'heure du test de manière pas trop rigide, je pense que vous avez beaucoup de choses différentes à faire aussi.

PS2: Pour le test, vous pouvez échanger des fichiers par mail, ou vous pouvez vous croire sur parole :o)

 

Ok !

Ai-je bien compris que nous imprimons tous deux un fichier par rapport à la courbe lisse (MA) et que nous faisons une prévision pour N lectures à venir ? Si c'est le cas, nous pouvons évaluer le résultat de la manière suivante : rassembler les statistiques des prédictions (1000 résultats) pour 10 lectures à venir (par exemple) et construire un champ de prévision en coordonnées cartésiennes, en plaçant la valeur réelle de l'AMM sur l'axe des abscisses et sa prévision - sur l'axe des ordonnées.


Sur le nuage obtenu par la méthode des moindres carrés nous traçons une ligne droite et celle avec la tangente de la pente de cette ligne sera plus proche de 1 - plus raide !


P.S. Et à propos du petit neurone, vous avez mis dans le mille, comme d'habitude :-)