L'étiquette du marché ou les bonnes manières dans un champ de mines - page 14

 
Neutron >> :

C'est la plus grosse erreur de toutes. Le marché vous punira pour votre insolence !

Vous ne pouvez jouer qu'avec le marché, et selon ses règles. Et s'il aime le jeu, il vous récompensera.

Attribuez-vous des qualités personnelles au marché, et avec une majuscule ? :)

Le marché est un espace sauvage, l'analogie avec l'océan me semble tout à fait pertinente.

 

Je plaisantais :-)

Je sais que le marché n'est qu'un processus aléatoire et quelque part quasi-stationnaire. Et la tâche du TS se résume à trouver et à exploiter un semblant de stationnarité.

sealdo писал(а) >>

Je me demande s'il existe un moyen de calculer les objectifs (TP, SL) par exemple à partir de la volatilité des "jours", des "semaines", ou autre, afin qu'ils puissent évoluer en douceur avec le marché.

Ces valeurs caractérisent le marché et ne peuvent être évaluées qu'en faisant tourner le TS sur l'historique.
 
Neutron >> :

Je plaisantais :-)


Il y a beaucoup de mecs sérieux ici ! Je plaisante... >> :)

Neutron, j'ai quelques questions sur le BGC. Ai-je bien compris que lorsqu'une valeur d'erreur est entrée dans un neurone, celui-ci divise cette erreur entre tous les poids de ses entrées, en fonction de leur part dans la somme totale de ces poids ?

C'est-à-dire que nous prenons la valeur d'erreur +/- Er, puis nous additionnons tous les poids des synapses entrantes Sw1 = SUM(w1+w2+w3+... wn) et nous calculons la proportion (en poids total) de chacune d'entre elles

Dw1 = w1/(Sw1/100) puis répartir +/-Er entre tous les poids en fonction de leur proportion dans le poids total : wi = wi +/- Dwi *Er est-ce bien cela ? Si oui, est-il possible de rendre cette distribution non pas linéaire, mais disons exponentielle ? Après tout, dans les systèmes vivants, les "bonus" et les "claques", c'est-à-dire les erreurs et les primes, ne sont pas du tout distribués de manière linéaire entre les "premiers" et les "derniers".

Deuxième question :

D'où vient la valeur de l'erreur ? Quel est le signe de cette valeur ? La valeur de la perte de la transaction précédente peut-elle être une "valeur d'erreur" ?

 
paralocus >> :

Ai-je bien compris que lorsqu'une valeur d'erreur est entrée dans un neurone, celui-ci divise cette erreur entre tous les poids de ses entrées, en fonction de leur part dans la somme totale de ces poids ?

Non, elle ne le divise pas - elle le distribue. Et elle le fait non pas parce que quelqu'un le souhaite, mais en raison de la minimisation de la fonction objective.

A la lumière de ce...

Si oui, est-il possible de faire en sorte que cette distribution ne soit pas linéaire, mais, disons, exponentielle ? Après tout, dans les systèmes vivants, les "bonus" et les "claques", c'est-à-dire les erreurs et les bonus, sont distribués entre les "premiers" et les "derniers" de manière non linéaire.

Cette hypothèse est susceptible de conduire à un apprentissage plus lent ou à un écart dans l'erreur totale.

 
TheXpert >> :

Non, elle ne le fait pas - elle se propage. Et il le fait non pas parce que quelqu'un le veut, mais en raison de la minimisation de la fonction cible.

A la lumière de ce...

Cette hypothèse est susceptible de conduire à un apprentissage plus lent ou à une divergence de l'erreur totale.

La prévisibilité augmentera-t-elle ?

 
paralocus писал(а) >>

Neutron, j'ai des questions sur le BGC. Ai-je bien compris que lorsqu'une valeur d'erreur est entrée dans un neurone, celui-ci divise cette erreur entre tous les poids de ses entrées, en fonction de leur part dans la somme totale de ces poids ?

C'est-à-dire que nous prenons la valeur de l'erreur +/- Er, puis nous additionnons tous les poids des synapses d'entrée Sw1 = SUM(w1+w2+w3+... wn) et calculons la part (dans le poids total) de chacune d'elles

Dw1 = w1/(Sw1/100) puis répartir +/-Er entre tous les poids en fonction de leur part dans le poids total : wi= wi +/- Dwi *Er est-ce vrai ? Si oui, est-il possible de rendre cette distribution non pas linéaire, mais disons exponentielle ? Après tout, dans les systèmes vivants, les "bonus" et les "claques", c'est-à-dire les erreurs et les primes, ne sont pas du tout distribués de manière linéaire entre les "premiers" et les "derniers".

Deuxième question :

D'où vient la valeur de l'erreur en premier lieu ? Quel est le signe de cette valeur ? La valeur d'une perte dans une transaction précédente peut-elle servir de "valeur d'erreur" ?

Non, ce n'est pas ça.

Considérons non pas un comité de grille comme le vôtre, mais une grille ordinaire à deux couches. Ensuite, vous pouvez généraliser.

Vous avez un vecteur de signaux d'entrée (qu'il soit unidimensionnel) de longueur n échantillons, et que n+1 échantillons soient un contrôle de la qualité de l'apprentissage de la grille. Vous lui donnez ce vecteur(n échantillons), en assimilant tous les poids à des valeurs aléatoires dans la plage +/-1 avec une distribution de densité de probabilité uniforme, et vous voyez le résultat de la grille. Supposons que l'on fixe +5,1, et que l'on vérifie que n+1 compte (la valeur à laquelle la grille formée sur le vecteur d'apprentissage doit aspirer) +1,1. Ensuite, on prend la différence entre la valeur obtenue et le +4 souhaité et on ajoute cette valeur, en gardant son signe à chaque poids du neurone de sortie (s'il est sans FA), ou bien on trouve la dérivée de FA à partir de cette valeur et on l'ajoute aux poids du neurone d'entrée (s'il a un FA). Et ainsi de suite.

Si vous digérez ce morceau, je vous dirai comment pousser plus loin l'erreur vers les poids d'entrée de la première couche (d'entrée).

 
Neutron >> :

Non, ça ne l'est pas.

Ne préférez-vous pas le faire en formules ? Le calcul n'est pas compliqué.

paralocus >> :

La prévisibilité augmentera-t-elle ?

Peu probable.

 
TheXpert >> :

Non, elle ne le fait pas - elle se propage. Et il le fait non pas parce que quelqu'un le veut, mais en raison de la minimisation de la fonction cible.

A la lumière de ce...

Cette hypothèse est susceptible de conduire à un apprentissage plus lent ou à une divergence de l'erreur totale.

Et pourquoi y aurait-il un écart dans l'erreur totale si Er = e(w1*x) + e(w2*x) + ... e(wn*x) ? Non, l'erreur cumulée serait égale à l'erreur entrante.

 
TheXpert писал(а) >>

Ne préférez-vous pas le faire en formules ? Le calcul n'est pas compliqué.

Vous pouvez chercher les formules vous-même dans la littérature, qui est abondante sur Internet.

Ne soyons pas trop hâtifs. Et n'essayez pas de vous compliquer la vie avec toutes sortes d'artifices, comme "l'apprentissage non linéaire" et autres, cela vient du malin. Beauté et fiabilité dans la simplicité et l'harmonie !

 
Neutron >> :

Si vous digérez cette partie, je vous dirai comment pousser l'erreur vers les poids d'entrée de la première couche (d'entrée) ensuite.

Je vais brasser...