L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 335

 
Азбука ИИ: «Рекуррентные нейросети»
Азбука ИИ: «Рекуррентные нейросети»
  • 2016.11.04
  • Тарас Молотилин
  • nplus1.ru
N+1 совместно с МФТИ продолжает знакомить читателя с наиболее яркими аспектами современных исследований в области искусственного интеллекта. В прошлый раз мы писали об общих принципах машинного обучения и конкретно о методе обратного распространения ошибки для обучения нейросетей. Сегодня наш собеседник — Валентин Малых, младший научный...
 

Les choses se sont-elles améliorées après l'application du chalut ?

Peut-être faudrait-il modifier la condition de conclusion de l'accord, car le chalutage est une issue trop facile, sans essayer de régler les choses ?

Pour un automate, la conclusion d'une affaire est liée à une certaine condition.

Sur le réel, les arrêts vont gâcher les nerfs...

 
Renat Akhtyamov:

Les choses se sont-elles améliorées après l'application du chalut ?

Peut-être faudrait-il modifier la condition de conclusion de l'accord, car le chalutage est une porte de sortie trop facile, sans essayer de régler les choses ?

Pour un automate, la clôture d'une transaction est associée à une condition.

Sur le réel, les arrêts vont gâcher les nerfs...

Pourquoi ? Le chalutage est une bonne chose. J'utilise toujours le chalutage adaptatif, même si je travaille avec les mains, donc je ne m'occupe pas de toutes les transactions immédiatement après l'ouverture.
 
Renat Akhtyamov:

Les choses se sont-elles améliorées après l'application du chalut ?

Peut-être faudrait-il modifier la condition de conclusion de l'accord, car le chalutage est une porte de sortie trop facile, sans essayer de régler les choses ?

Pour un automate, la clôture d'une transaction est associée à une condition.

Sur le terrain, les arrêts vont gâcher les nerfs...


Je ne sais pas, peut-être que les paramètres sont faux ... Plus tard, je mettrai la version mise à jour dans le monitoring avec un risque normal

Je voudrais ajouter d'autres entrées, j'en ajouterai 3 maintenant et 5 bientôt.

 

J'ai commencé à former un réseau neuronal. La tâche planifiée n'est pas encore en cours. Il indique que les données ne sont pas dans le format. Je ne comprends pas encore ce qu'il veut(.

Mais voici un exemple pour le réseau [3,4,1].

//Ожидаемый отклик НС
t  = 0.3    1.    0.    0.    0.5 
//Реальный отклик обученной НС
ans  = 0.3223616    0.9315578    0.1047166    0.0809235    0.4536240  

Il semble que ce soit bon.

 
Yuriy Asaulenko:

J'ai commencé à former un réseau neuronal. La tâche planifiée n'est pas encore en cours. Il indique que les données ne sont pas dans le format. Je ne comprends pas encore ce qu'il veut(.

Mais voici un exemple pour le réseau [3,4,1].

Ça a l'air d'aller.


Le tensorflow de Google semble également bon, mais il n'est pas très pratique à installer et à utiliser avec python.
 
Maxim Dmitrievsky:

Le tensorflow de Google a également l'air bien, mais il n'est pas très pratique à installer et à utiliser avec python.

C'est la neuronique de SciLab. Maintenant, la tâche principale a soudainement (de façon inattendue) commencé à apprendre. Je me suis trompé quelque part apparemment).

En général, on dit qu'il y a beaucoup de neurones sur Internet et dans C++. Mais je ne les ai pas cherchés.

 
Yuriy Asaulenko:

C'est la neuronique de SciLab. Maintenant, la tâche principale a soudainement (de façon inattendue) commencé à apprendre. Je me suis trompé quelque part apparemment).

En général, on dit qu'il y a beaucoup de neurones sur l'Internet et dans le C++. Mais je ne les ai pas cherchés.


J'en ai partout, il y a maintenant un vrai boom neuronal).
 

Une expérience visant à former un réseau de neurones (NS) pour croiser deux MA a échoué. Il a été entraîné à reconnaître uniquement les croisements vers le haut.

Pour l'expérience, le NS - 3,3,3,1 a été sélectionné et testé pour l'entraînement et la reconnaissance de modèles créés artificiellement. Cependant, après avoir appris à reconnaître les MAs, pas un seul croisement n'a été reconnu. La raison en est que le NS a besoin d'images plus contrastées, et ne se soucie pas de toutes les différences de 0,01-0,1 entre les entrées.

Pour une structure donnée du SN, il est tout à fait possible d'obtenir une reconnaissance fiable lorsque la différence de signal n'est pas inférieure à 0,2-0,3.

 

Je commence à explorer les réseaux neuronaux.

Je cherche des options qui peuvent être mises en œuvre directement dans MT5.

Je suis intéressé par la variante utilisant ALGLIB (https://www.mql5.com/ru/articles/2279), mais d'après la description du réseau, il s'agit d'un réseau séquentiel sans rétroaction. Et l'inconvénient est qu'il ne peut être formé que par un seul fil de processeur (qui traite le conseiller expert avec un réseau neuronal).

Je pense qu'il ne serait pas trop difficile d'ajouter 2 couches séquentielles cachées au réseau neuronal de l'article https://www.mql5.com/ru/articles/497, puis de l'entraîner par force brute ou génétique dans le testeur. Mais dans ce cas, vous pouvez utiliser beaucoup plus de fils de calcul (cœurs de votre processeur, dans le réseau et dans le nuage). Est-ce que j'ai bien compris ?

Comment ajouter des instructions manuelles pour les bonnes réponses (lieux d'achat et de vente) dans la formation d'un tel réseau ?

Peut-être existe-t-il déjà une bibliothèque pour les réseaux séquentiels multicouches quelque part ?

Par ailleurs, je ne comprends pas très bien l'utilité de l'utilisation des couches internes pour les opérations de change. Est-il judicieux de les ajouter ? Pourquoi ?

Нейросеть: Самооптимизирующийся советник
Нейросеть: Самооптимизирующийся советник
  • 2016.10.03
  • Jose Miguel Soriano
  • www.mql5.com
Возможно ли создать советник, который согласно командам кода автоматически оптимизировал бы критерии открытия и закрытия позиций с определенной периодичностью? Что произойдет, если реализовать в советнике нейросеть (многослойный персептрон), которая, будучи модулем, анализировала бы историю и оценивала стратегию? Можно дать коду команду на ежемесячную (еженедельную, ежедневную или ежечасную) оптимизацию нейросети с последующим продолжением работы. Таким образом возможно создать самооптимизирующийся советник.