L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 593

 
Maxim Dmitrievsky:

Réseaux à propagation directe focalisée avec délais

Dans la reconnaissance des patrons structurels, il est courant d'utiliser des réseaux neuronaux statiques. En revanche, la reconnaissance des patrons temporels nécessite le traitement d'images qui changent au fil du temps, et la génération d'une réponse à un moment particulier qui dépend non seulement de la valeur actuelle, mais aussi de plusieurs valeurs précédentes.

Est-ce que ça existe ? :) Exactement le type de ces architectures fonctionnera dans le Forex, en théorie... mais vous devez expérimenter. C'est facile à faire, il suffit d'ajouter un couple de neurones "intéressants" à MLP, ou de connecter 2 modèles.

Où trouvez-vous le modèle ?
 
Yuriy Asaulenko:
Où trouvez-vous le modèle ?

Je vais le faire moi-même ; je n'ai pas encore fini de le lire, il y a beaucoup de choses intéressantes dans les livres, il s'avère que

Mais l'idée de "mémoire" pour les marchés devrait être bonne... mais pas de récurrence super lente, mais quelque chose de plus simple et de plus spécialisé

 

L'exemple le plus simple :

Par "décalage" externe, nous pouvons entendre un certain f- à partir, par exemple, des transactions précédentes, de la volatilité ou d'autres hyperparamètres du système.

Mais il serait préférable que le décaleur soit intégré à un ou plusieurs neurones, ce qui donnerait l'impression qu'il est non linéaire.

 

N'espérez pas qu'un nouveau type de paquetage neuronkey ou python apparaîtra et résoudra tous les problèmes - et il n'y aura pas d'ajustement excessif du modèle, et il n'aura pas peur de la non-stationnarité, etc.

Quel que soit le degré de sophistication du modèle, il reposera sur un principe simple : il prend des données d'entraînement préparées par un humain, et le modèle ne fait que créer une description simplifiée de la manière de calculer le résultat à partir des données d'entrée. Ce n'est pas très éloigné de la prédiction du voisin le plus proche, mais les modèles conventionnels prédisent des ordres de grandeur plus rapidement (bien qu'ils prennent beaucoup de temps à apprendre), ils sont donc plus appréciés.

L'expression clé est "données formées par l'homme". Si l'expert prépare correctement les données, vous pouvez les utiliser pour entraîner le modèle et réaliser des transactions rentables. Regardez par exemple les tableaux d'entraînement et de test partagés par SanSanych, Vizard et Michael.
Je suis étonné quand je les regarde. Et ce ne sont pas des neurones rnn extraordinaires avec des filtres d'entrée non linéaires et des dizaines de couches qui le feront pour vous.

 
Dr. Trader:

N'espérez pas qu'un nouveau type de paquetage neuronkey ou python apparaîtra et résoudra tous les problèmes - et il n'y aura pas d'ajustement excessif du modèle, et il n'aura pas peur de la non-stationnarité, etc.

Quel que soit le degré de sophistication du modèle, il reposera sur un principe simple : il prend des données d'entraînement préparées par un humain, et le modèle crée simplement une description simplifiée de la manière de calculer le résultat à partir des données d'entrée. Tout cela n'est pas très éloigné de la prédiction du plus proche voisin, mais les modèles habituels prédisent des ordres de grandeur plus rapidement (bien que l'apprentissage soit long), de sorte qu'ils sont plus appréciés.

L'expression clé est "données d'apprentissage préparées par l'homme". Si le conseiller expert prépare correctement les données, vous les utiliserez pour apprendre le modèle et réaliser des transactions rentables. Prenez par exemple les tableaux pour l'entraînement et les tests qui ont été publiés par SanSanych, Vizard, Michael.
Je suis étonné quand je les regarde. Et ce ne sont pas des neurones rnn extraordinaires avec des filtres d'entrée non linéaires et des dizaines de couches qui le feront pour vous.


Malheureusement (peut-être seulement pour moi), la plupart de ce qui est discuté ici est de la neurostatique. Elle a vraiment besoin de données très bien préparées, dont les propriétés statistiques ne changent pas au fil du temps, d'où les nombreuses façons de sélectionner et de filtrer les prédicteurs. Je trouve cette approche très difficile en raison du prétraitement.

Mais on peut regarder la neurodynamique avec différentes variantes de "mémoire" et de choses adaptatives... ça me semble une approche plus simple et plus naturelle, et je ne suis pas sûr de l'efficacité, ça dépend de la façon de faire.

Cela dépend du point de vue sous lequel on considère le marché - comme un ensemble de modèles ou comme un système évoluant selon certaines lois.

 
Maxim Dmitrievsky:

Mais vous pourriez examiner la neurodynamique avec différentes variantes de la "mémoire" et des choses adaptatives... cela me semble une approche plus simple et naturelle, mais je ne suis pas sûr de l'efficacité, cela dépend de la façon dont vous le faites.
...
évoluant selon certaines lois.
...

Il faut l'étudier, sans aucun doute. Mais l'humanité n'a pas encore inventé d'outil approprié (du moins pas dans le domaine public).

Les neurones lstm sont très intéressants pour ce sujet, ils peuvent décrire des séries temporelles plus précisément que les neurones habituels en utilisant moins de neurones. Mais le problème avec eux est le surajustement.
Supposons qu'en formant un neuronka régulier, vous puissiez extraire certaines données pour la validation croisée, et ainsi traiter la suralimentation. Mais pour le neuronka lstm, l'ordre d'arrivée des données est important, chaque nouvelle prédiction utilise l'état interne du neuronka et le modifie. Par conséquent, toute la série temporelle est prédite dans un ordre strict, chaque prédiction dépend du passé et affecte le futur. Si certains exemples sont retirés au hasard pour être utilisés ultérieurement dans la validation croisée, la séquence est rompue, ce qui est mauvais et remet en question l'ensemble de la formation. Si nous divisons les données en deux parties de manière séquentielle pour la formation et le test - nous obtenons à nouveau un surajustement car cela n'aide pas le forex.
Tout ce que l'on peut faire est de former lstm à une précision maximale et espérer. Mais le forex ne pardonne pas une telle irresponsabilité.

Lorsque ce problème sera résolu, il sera possible de créer un graal.

 

Le MQL en lui-même n'est ni mauvais ni bon. Sa syntaxe est proche de celle du C++. D'une manière générale, il s'agit d'une langue standard. Le problème réside dans la disponibilité des bibliothèques nécessaires à cet effet. Mais ils sont soit absents, soit de mauvaise qualité. C'est pourquoi nous devons intégrer Python. J'ai déjà cité un lien vers son intégration avec MQL. Je vais vous en donner une autre. La bibliothèque est maintenant tout à fait utilisable. Vous pouvez le télécharger dès maintenant.

 
Dr. Trader:

Cela doit être étudié, sans aucun doute. Mais l'humanité n'a pas encore inventé d'outil approprié (du moins pas dans le domaine public).

Les neurones lstm sont assez intéressants pour ce fil, ils peuvent décrire des séries temporelles plus précisément que les neurones habituels en utilisant moins de neurones. Mais le problème avec eux, c'est le sur-équipement.
Supposons qu'en formant un neuronka régulier, vous puissiez extraire certaines données pour la validation croisée, et ainsi traiter la suralimentation. Mais pour le neuronka lstm, l'ordre d'arrivée des données est important, chaque nouvelle prédiction utilise l'état interne du neuronka et le modifie. Par conséquent, toute la série temporelle est prédite dans un ordre strict, chaque prédiction dépend du passé et affecte le futur. Si certains exemples sont retirés au hasard pour être utilisés ultérieurement dans la validation croisée, la séquence est rompue, ce qui est mauvais et remet en question l'ensemble de la formation. Si nous divisons les données en deux parties de manière séquentielle pour la formation et le test - nous obtenons à nouveau un surajustement car cela n'aide pas le forex.
Tout ce que l'on peut faire est de former lstm à une précision maximale et espérer. Mais le forex ne pardonnera pas une telle irresponsabilité.

Il faut des années de travail académique sur le sujet de la neutralisation des neurones lstm. Lorsque ce problème sera résolu, nous pourrons commencer à créer le graal.


vous avez besoin d'une ns qui joue avec elle-même dans le forex :) ce n'est pas lstm. lstm n'utilise pas BP comme un agent externe qui lui donne un coup de pied dans le front quand il fait une erreur

Yuri a déjà écrit à ce sujet, juste pour résumer.

 
Grigoriy Chaunin:

Le MQL en lui-même n'est ni mauvais ni bon. Sa syntaxe est proche de celle du C++. D'une manière générale, il s'agit d'une langue standard. Le problème réside dans la disponibilité des bibliothèques nécessaires à cet effet. Mais ils sont soit absents, soit de mauvaise qualité. C'est pourquoi nous devons intégrer Python. J'ai déjà cité un lien vers son intégration avec MQL. Je vais vous en donner une autre. La bibliothèque est maintenant tout à fait utilisable. Téléchargez-le.


Merci pour l'effort ! Nous l'utiliserons plus tard, je l'ai gardé pour moi.

 

Impossible de dormir - j'ai lu un peu sur Internet. J'ai aimé celui-là :

"Le fait que des incréments soient utilisés n'est pas si mauvais dans le contexte général, la plupart des prix logarithmiques sont alimentés à l'entrée, les incréments sont un pas en avant, bien que les deux soient adaptés.

Je connais des gens qui ont obtenu le graal de NS, mais ces gars-là sont tellement fermés à la communication et même aux indices sur ce qu'ils font, je suis un débutant donc je n'ai définitivement aucune chance. Je sais seulement que tout est compliqué, ce n'est pas Vels, pas Metatrader et même pas S#, et C++ et MatLab avec quelques puces qui décodent et interprètent les données provenant des caliders, il s'est avéré que c'est une seule et même méthodologie, j'ai entendu et j'ai eu peur, ils travaillent avec des oncles qui avaient l'habitude de broyer des téraoctets par jour au CERN à la recherche de nouvelles particules dans le chaos quantique.

C'est drôle. Je maintiens mon opinion - il est nécessaire de nourrir le plus pur, comme une larme, les augmentations de prix à l'entrée NS. Ce sont les incréments qui sont la clé de tout. Ils constituent la base de la solution à ce problème. En fait, au Forex, nous suivons un processus pseudo-stationnaire de mouvement d'un paquet d'ondes ( fonction de densité de probabilité) de ces incréments. Et rien de plus. (J'ai déjà écrit ce paragraphe :)))