L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 347

 
elibrarius:

c'est-à-dire que nous avons besoin de =RNN(a0,a1,a2,a3) ;

Je ne comprends pas si RNN est RNN, ou ReshetovNNN (RNN), qui n'est pas RNN.

Maintenant il s'agit de l'un, maintenant il s'agit de l'autre. Je ne comprends déjà pas dans quel contexte.

Рекуррентная нейронная сеть — Википедия
  • ru.wikipedia.org
Рекуррентные нейронные сети (англ.  ; RNN) — вид нейронных сетей, в которых имеется обратная связь. При этом под обратной связью подразумевается связь от логически более удалённого элемента к менее удалённому. Наличие обратных связей позволяет запоминать и воспроизводить целые последовательности реакций на один стимул. С точки зрения...
 
Yuriy Asaulenko:

Je ne comprends pas si c'est RNN qui est RNN, ou ReshetovNN (RNN), qui n'est pas RNN.

Il s'agit de l'un ou l'autre. Je ne comprends déjà pas dans quel contexte.

A en juger par le code, il n'y a pas de mémoire au sens direct du terme. Les entrées ne reçoivent que les données de l'indicateur pour les barres plus anciennes, par exemple les barres 0,1,2,3 ou 0,2,4,8 ou 0,10,20,30, selon votre préférence. Le souvenir ne se trouve donc pas dans la NS elle-même mais provient d'une source externe.
 
Elibrarius:
A en juger par le code, il n'y a pas de mémoire au sens littéral du terme. Les entrées ne reçoivent que les données de l'indicateur pour les barres plus anciennes, par exemple les barres 0,1,2,3 ou 0,2,4,8 ou 0,10,20,30 - selon votre choix. Le souvenir n'est donc pas dans la NS elle-même, mais provient d'une source externe.


Et ce n'est plus un RNN. RNN est seulement avec la rétroaction - avec la récursion. Quelqu'un doit être renommé)).

Et, strictement parlant, ce n'est pas un réseau, c'est un seul neurone.

 
Yuriy Asaulenko:


Et ce n'est plus du RNN. RNN est seulement avec la rétroaction - avec la récursion. Quelqu'un doit être renommé)).

Et, à proprement parler, ce n'est pas un réseau, mais un seul neurone.

Ajoutez-en un autre du même type, puis envoyez les sorties de ces deux neurones au troisième - voilà). Seuls les poids ne peuvent pas être optimisés, si le premier neurone a 100 entrées, le deuxième a 100 entrées, et le troisième a 2.

Ici, au lieu de calculer à partir des 202 entrées de , nous devrions calculer à partir des commandes d'entraînement... Ne calculez pas l'optimisation de l'équilibre dans l'optimiseur, mais utilisez, par exemple, 1000 points d'entraînement et calculez les coefficients en fonction de ceux-ci.

 
elibrarius:
Ajoutez-en un autre, puis envoyez les sorties de ces deux neurones au troisième - c'est la grille). Seuls les poids seront irréalistes si le premier neurone a 100 entrées, le deuxième a 100 entrées et le troisième a 2.
La solution de Reshetov est intéressante. Quelque chose de similaire va probablement être fait. Seulement à partir du contexte, vous ne comprenez souvent pas de quoi nous parlons - de quel RNN nous parlons.
 
elibrarius:

Parce qu'il y a une erreur dans RNN3 -
les données sont demandées pour 5 points et vous calculez la probabilité pour 4 points et vous ne commencez pas avec la barre actuelle a0, mais avec le décalage sur la période, c'est-à-dire avec a1. La probabilité est calculée non pas pour le moment présent, mais pour un point a1 - d'où les mauvais résultats pour a0)).

// Преобразование показаний технического осциллятора RSI в диапазон от 0 до 1 включительно
   double a0 = rsi[0] / 100.0;
   double a1 = rsi[p] / 100.0;
   double a2 = rsi[2*p] / 100.0;
   double a3 = rsi[3*p] / 100.0;
   double a4 = rsi[4*p] / 100.0;



// Вычисление вероятности
   double results=RNN(a1,a2,a3,a4);

c'est-à-dire =RNN(a0,a1,a2,a3) ;

Eh bien, afin de calculer pour 5 points, vous devriez également augmenter la matrice logarithmique à 25 règles, c'est-à-dire52. Et ainsi de suite, si d'autres points/informations sont nécessaires. S'il y a 10 entrées, cela signifie 100 variables d'entrée ))))). Je me demande si MT5 est capable de l'optimiser ?


Non, c'est son original aussi, je ne l'ai pas échangé.

Pour 10 entrées il serait déjà problématique de compter même à travers le nuage) Mais je vais essayer de faire 3 tels systèmes experts, alimenté à l'entrée 4 ) Si les prix d'ouverture ne sont pas testés pour une très longue période est ok

 
Yuriy Asaulenko:
Reshetov a une solution intéressante. Quelque chose de similaire va probablement être fait. Seulement à partir du contexte, vous ne comprenez souvent pas de quel RNN nous parlons.

Ce n'est pas un RNN, c'est un système expert, comme il l'appelle... Je ne sais pas pourquoi il s'appelle RNN, peut-être à cause de son nom de famille :)
 
Maxim Dmitrievsky:


Non, c'est aussi son original, je ne l'ai pas échangé.

Pour 10 entrées ce serait déjà un problème de compter même à travers le nuage) Mais je vais essayer de faire 3 tels systèmes experts, soumis pour l'entrée de la 4ème ) Si les prix d'ouverture ne sont pas testés pour une très longue période, alors bien

Et si on le divise en cadres avec un petit chevauchement ? Nous obtenons 2 ou 3 conseillers experts qui se chevauchent partiellement, puis nous les combinons.
 
Yuriy Asaulenko:
Et si nous le divisions en cadres avec un léger chevauchement ? Nous obtenons 2 ou 3 EE qui se chevauchent partiellement, puis nous les fusionnons.

en option, oui
 

Il me semble irréaliste de calculer quelque chose de rentable avec seulement 3 à 5 entrées en utilisant une telle matrice. Je suis d'accord pour dire qu'elle couvre toutes les variations possibles.

Mais si par exemple nous faisons un réseau avec 5 entrées, cela fera 32 coefficients pour les calculs. L'algorithme génétique converge généralement en 10000 passages, c'est-à-dire que les entrées convergent en moyenne vers -1,0-1.
Avec 3 entrées, on peut peut-être calculer un modèle, mais 3 entrées ne sont pas suffisantes à mon avis.

Alors que les réseaux neuronaux peuvent être construits sur R ou même à partir d'ALGLIB et rapidement calculés. Leur structure interne ne sera pas aussi complète, mais les dépendances les plus fortes seront trouvées pendant la formation.