L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 591

 
Yuriy Asaulenko:
En fait, tout doit être écrit en C++/C# et il n'y a aucun problème pour interagir avec quoi que ce soit. Le problème est que les principales bibliothèques de DM sont en Python et R, et qu'il est nécessaire, au moins, de les maîtriser. Et l'interaction n'est rien, il y a des API partout (sauf MQL). Vous pouvez au moins transférer des fichiers via RAM-Disk.

Oui, c'est vrai, il n'y a aucun problème avec ça.

Le problème est de savoir à quel point il faut s'enraciner dans le MO et à quel stade comprendre que ces modèles sont déjà suffisants...

J'ai choisi les classiques pour l'instant et tout me suffit... Je ne cherche pas à augmenter la précision de 1 à 10% :) maintenant je me concentre sur les stratégies, j'ai beaucoup d'idées - et tout cela doit être testé, tshe

J'étudie les PNN en détail - ils travaillent avec des valeurs de probabilité et ne se recyclent pas beaucoup.

 
Evgeny Belyaev:

Yura, tu es vraiment quelqu'un ! )) Vous parlez comme ça sur le forum MQL. Maintenant, vos camarades vont accourir et vous jeter des pierres.

J'utilise également MQL uniquement pour ouvrir/fermer des ordres. J'utilise MQL uniquement pour ouvrir/fermer les ordres. Tous les calculs sont dans Wissima. Cependant, ce forum est le seul où l'on trouve des physiciens et des mathématiciens plus ou moins professionnels, c'est pourquoi je suis ici. Sur le reste des sites, ce ne sont que des idiots de village.
 
Alexander_K2:
J'utilise également MQL uniquement pour ouvrir/fermer des ordres. Tous les calculs sont dans Wissima. C'est le seul forum où nous avons des physiciens et des mathématiciens plus ou moins professionnels, c'est pourquoi je suis ici. Sur le reste des sites, ce ne sont que des idiots de village.

Alexander, ce sujet pourrait t'intéresser :)

La méthode d'approximation des fonctions de densité de probabilité au moyen de fonctions à noyau est très similaire à la méthode desfonctions de base radiales, et nous arriv ons donc naturellement aux notions deréseau neuronal probabiliste (PNN) et deréseau neuronal de régression généralisée (GRNN)(Speckt 1990, 1991). Les PNNNs sont destinés aux tâches declassification et les GRNNs aux tâches derégression. Les réseaux de ces deux types sont des implémentations de méthodes d'approximation à noyau, conçues commeun réseau neuronal.

 
Maxim Dmitrievsky:

Alexander, ce sujet pourrait t'intéresser :)

La méthode d'approximation des fonctions de densité de probabilité au moyen de fonctions à noyau est très similaire à la méthode desfonctions de base radiales, et nous arriv ons donc naturellement aux notions deréseau neuronal probabiliste (PNN) et deréseau neuronal de régression généralisée (GRNN)(Speckt 1990, 1991). Les PNNNs sont destinés aux tâches declassification et les GRNNs aux tâches derégression. Ces deux types de réseaux sont des implémentations de méthodes d'approximation à noyau, conçues commeun réseau neuronal.

Aha. Merci, Maxim !
 
Alexander_K2:
Ouaip. Merci, Maxim !
Maxim est en fait assez bon. Parfois, je suis étonné par sa façon de voir les choses. Mais il ne faut pas oublier que les personnes qui lisent beaucoup perdent l'habitude de penser par elles-mêmes. Devinez qui ?))
 
Yuriy Asaulenko:
Mais il faut se souvenir que les gens qui lisent beaucoup deviennent incapables de penser par eux-mêmes.(c) Et je n'ai pas dit ça. Devinez qui ?))

Il y a aussi cet avis :

Les gens cessent de penser quand ils cessent de lire. Diderot

 
Yuriy Asaulenko:
Maxim est en fait bon. Parfois, je suis étonné par sa façon de voir les choses. Mais il faut se souvenir que les personnes qui lisent beaucoup perdent l'habitude de penser par elles-mêmes. Devinez qui ?))
Je suis d'accord. Mais, le lien est intéressant - je le lirai quand j'aurai le temps. Je suis maintenant occupé - je vois le Graal à l'horizon et, poussé par les mains puissantes de mon beau-père, je me dirige vers lui.
 
Evgeny Belyaev:

Il y a aussi cet avis :

Les gens cessent de penser quand ils cessent de lire. Diderot

L'un n'exclut pas l'autre.) Personne n'a prétendu qu'il ne fallait pas lire du tout).
 
Alexander_K2:
Je suis d'accord. Mais le lien est intéressant - je le lirai quand j'aurai le temps. Je suis occupé maintenant - je vois le Graal à l'horizon et, poussé par les mains puissantes de mon beau-père, je me dirige vers lui.

Cherchez et vous trouverez. (с)

Mais pas cette fois.

 
Yuriy Asaulenko:
Maxim est en fait très bon. Je suis parfois étonné par sa façon de voir les choses. Mais n'oubliez pas que les personnes qui lisent beaucoup perdent l'habitude de penser par elles-mêmes. Devinez qui ?))

Oui, j'ai juste parcouru toutes sortes d'articles pour voir ce qui est intéressant sur le sujet :) Eh bien, le principal avantage par rapport au MLP, tel que je le comprends, est la vitesse et les paramètres minimaux (ici, ils ne le sont pas du tout) et le fait que ces grilles ne sont presque pas recyclées.

Eh bien et la force gaussienne est utilisée à la place de celle de Stydent. Pour chaque entrée, une densité de sommets fi est créée, puis les résultats à la sortie sont additionnés linéairement.

à propos, PNN et GRNN sont disponibles sous forme mql-form, mais je ne les ai pas encore essayés et je ne les ai pas comparés à MLP.

https://www.mql5.com/ru/code/1323

Класс нейронной сети PNN
Класс нейронной сети PNN
  • votes : 41
  • 2012.11.30
  • Yury Kulikov
  • www.mql5.com
Класс CNetPNN реализует вероятностную нейронную сеть (Probabilistic Neural Network - PNN). Создание сети объявляется параметрическим конструктором класса. Нумерация классов(целей классификации) начинается с нуля и должна быть непрерывна. Например, если задано 3 класса, то номера классов должны быть: 0, 1, 2. Обучение сети осуществляется вызовом...