L'étiquette du marché ou les bonnes manières dans un champ de mines - page 83

 
paralocus писал(а) >>

Le partitionnement optimal d'un tick BP avec un seuil H, doit être considéré comme le partitionnement où il y a le nombre minimum d'épaules unicolores consécutives d'une série de transactions.

Si la distribution de la rangée de transactions résultante est telle que plus de 50 % des épaules consécutives ont des couleurs différentes, alors pourquoi la NGS ?

C'est vrai. En effet, le cas que vous avez exprimé correspond à un marché inefficace dans lequel on peut et doit gagner de l'argent ! Si nous traçons la série de transactions (RT) isolément du temps terminal (juste le décompte de la série), l'effet est le plus évident :

Exactement de telles zones (et elles se ressemblent pour les stratégies H+/-) sont pêchées par les TC basés sur les constructions Kagi décrites dans la thèse de Pastukhov. Mais il y a un problème lié à la faible rentabilité (par rapport aux commissions de courtage) de ces TS. C'est lié au fait que la stratégie classique utilise la propriété la plus simple et la plus accessible de la formation Kagi - l'inversion du PT, mais il existe d'autres régularités... c'est ce que NS devrait être capable d'identifier !

 
Neutron >> :

il y a d'autres modèles... c'est ce que le NS devrait être capable de détecter !

Pouvons-nous entrer dans le détail de ce point ? Je ne peux pas penser à autre chose qu'à une longueur d'épaule (si vous pensez à NS et kagi).

Donc je suis un peu perplexe :

Supposons qu'il existe un SN qui est formé avec un nombre de : +1,-1,+1,-1,+1,-1,-1..... (c'est-à-dire des entrées binaires). Dans ce cas, je peux deviner avec une précision d'environ 80 % ce qu'il apprendra à trois reprises. La non-linéarité de la NS n'est pas pertinente.

 

J'aimerais autant que vous connaître les réponses à certaines questions !

Voyons comment fonctionne un NS binaire. Supposons que nous ayons un vecteur d'apprentissage. Tout ce qu'un tel SN peut faire pour minimiser l'erreur de sortie est de calculer les probabilités de résultats pour toutes les combinaisons d'entrées possibles. Pour plus de clarté, ayons trois entrées, alors toutes les combinaisons d'entrées sont réduites aux modèles suivants (pour la beauté, nous irons de +/-1 à 0/1) :

000

001

010

011

100

101

110

111

Si le vecteur d'apprentissage P est plusieurs fois plus long que le nombre d'entrées d, le SN calculera simplement la probabilité p de laisser tomber 1 sur chaque motif (la probabilité pour zéro est 1-p). Mais nous pouvons le faire sans NS ! Il y a une subtilité ici. À savoir, que ferez-vous lorsque vous ne rencontrerez aucune combinaison dans le vecteur d'apprentissage ? Qu'allez-vous attribuer en réalité à ce modèle ? - Rien ! Vous devrez augmenter la longueur du vecteur P jusqu'à ce que vous le rencontriez (le motif). Et il n'est pas certain que vous disposiez de suffisamment de données, ou même si vous en disposez, il n'est pas certain que vous ne parviendrez pas à sortir de la longueur d'apprentissage optimale. Tu sais ce que je veux dire ? C'est là que l'avantage du NS entre en jeu. Il s'avère qu'il n'a pas besoin de toute la formation (pour toutes les occasions), mais qu'il est capable de généraliser les connaissances disponibles avec une fiabilité de généralisation maximale ! En d'autres termes, il reconstruit de lui-même le résultat le plus probable pour un motif, même s'il n'existait pas auparavant dans le programme d'entraînement. C'est comme un adulte - nous n'avons pas besoin d'un précédent pour prendre une décision dans telle ou telle situation.

Ainsi, il prendra une décision en projetant les données disponibles (entrée) sur une certaine hyper-surface qu'il construit dans l'espace des caractéristiques pendant son apprentissage. Cette surface est multidimensionnelle (par le nombre d'entrées) et peut être un plan, ou une surface d'ordre supérieur (paraboloïde, hyperboloïde pour trois dimensions, etc.). La présence de la non-linéarité permet des topologies de surface complexes, et peu importe que l'entrée soit binaire, ce qui compte c'est qu'elle soit projetée sur une surface non triviale.

Donc, je pense que la non-linéarité, même avec une entrée binaire, joue un rôle.

 
Oui, j'ai compris. Il y a une idée. Nous devons calculer la probabilité que le module de projection du prochain effet de levier d'une série de transactions sur l'axe Y soit n>1 écart. Ensuite, calculez la taille du pot-de-vin en tant que MO de la longueur du levier et il en sera de même pour l'arrêt. J'ai bien peur que ce soit tout ce que les statistiques peuvent donner, mais c'est +.
 

Je suis un peu confus au sujet du calcul de l'erreur pour la couche cachée avec FA non linéaire. Pouvez-vous vérifier si je prends l'erreur de couche cachée correctement ?

Ici, je suis confus par le fait que l'erreur à la sortie de la couche cachée est égale à la valeur de la microcorrection de la synapse correspondante de la couche de sortie.

 

Non, ça ne va pas !

1. Trouvez la sortie NS - OUT. Vous avez raison.

2. Calculez l'erreur de la NS : dOUT=x-OUT. Connaissant cette erreur, trouver la valeur des poids de correction du neurone de sortie. C'est également correct.

3. la même erreur se trouve à la sortie de chaque i-ème neurone de la couche cachée (couche d'entrée), recalculez-la à l'entrée par la formule : dIn[i]=dOUT*(1-out[i]^2), où out[i] est la sortie du i-ème neurone de la couche cachée. Connaissant l'erreur apportée à l'entrée de chaque neurone(dIn[i]), vous trouvez la valeur des poids de correction dans la couche d'entrée.

 

Je donnais 100 à 120 époques pour une seule couche. Pour un bicouche, est-ce que ce n'est probablement pas suffisant ? Il ne donne pas encore de bons résultats sur le kotier(clockwork).


 
paralocus писал(а) >>

Quelque chose sur elle sur la kotira (horloges) ne donne pas encore de bons résultats.

Vous attendez quelque chose de différent ?

 
Neutron >> :

Vous vous attendiez à quelque chose de différent ?

Honnêtement, oui. Je veux dire, le truc de la couche unique fonctionnait. Vous avez raison, cependant, vous devriez arrêter avec les délais pour de bon.

 
paralocus писал(а) >>

Je donnais 100 à 120 époques pour une seule couche. Pour un bicouche, est-ce que ce n'est probablement pas suffisant ? Il ne donne pas encore de bons résultats sur le kotier (horloge).

Je pensais que tu avais dit ça à propos de la couche unique...

J'ai une double couche sur la chapelle qui donne systématiquement th<=0.05, et une simple couche autour de zéro.