L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 428

 
Maxim Dmitrievsky:

Je vois, je ne pense pas que quelqu'un ici ait comparé dans la pratique :) Je vais chercher des informations, pour ne pas me faire avoir s'il s'avère que le diplerning ne donne pas un avantage sur l'échafaudage. Et comme la pièce constitutive est une MLP, il se pourrait bien qu'elle n'en ait pas...

A propos, tout ce qui comporte plus de 2 couches est appelé diplerning, MLP avec 2 couches cachées est aussi diplerning. Je faisais référence aux filets profonds, que Vladimir décrit dans l'article du lien ci-dessus.

C'EST TOTALEMENT FAUX. Où trouvez-vous ces informations ?

Bien qu'on dise que les prédicteurs sont les plus importants parce que les modèles fonctionnent de la même manière... mais c'est la théorie, en pratique il s'avère que la sélection du modèle est aussi très importante, par exemple le compromis entre la vitesse et la qualité, parce que le NS a tendance à être long...

DNN C'est très rapide, testé.

Je veux une connexion directe au serveur P depuisMT5 ou une connexion directe au serveur P depuis MT5, mais la connexion directe est préférable. Vous avez besoin d'un temps pour réécrire avec C++ le réseau de neurones dont vous avez besoin sur mql, et c'est tout.

Comment vérifiez-vous ? Ça marche pour moi.

Ah, j'ai oublié d'ajouter IMHO

IMHO basé sur la pratique

Bonne chance

 
Vladimir Perervenko:

L'apprentissage profond (également appelé apprentissage structuré profond ou apprentissage hiérarchique) est l'application à des tâches d'apprentissage de réseaux neuronaux artificiels (RNA) contenant plus d'une couche cachée. L'apprentissage profond fait partie d'une famille plus large de méthodes d'apprentissage automatique basées sur l'apprentissage de représentations de données, par opposition à des algorithmes spécifiques à une tâche. L'apprentissage peut être supervisé, partiellement supervisé ou non supervisé.


En ce qui concerne les diplômes avec les auto-codeurs, oui, c'est rapide, mais je ne les ai pas encore abordés, donc il y avait une question de logique - y a-t-il un avantage par rapport à la RF ?

p.s. Cela fonctionne-t-il aussi dans l'optimiseur ou dans un nuage ?

https://en.wikipedia.org/wiki/Deep_learning

 
Maxim Dmitrievsky:

L'apprentissage profond (également appelé apprentissage structuré profond ou apprentissage hiérarchique) est l'application à des tâches d'apprentissage de réseaux neuronaux artificiels (RNA) contenant plus d'une couche cachée. L'apprentissage profond fait partie d'une famille plus large de méthodes d'apprentissage automatique basées sur l'apprentissage de représentations de données, par opposition à des algorithmes spécifiques à une tâche. L'apprentissage peut être supervisé, partiellement supervisé ou non supervisé.


Pour ce qui est de diplômer avec des auto-codeurs, oui, rapidement, mais je ne les ai pas encore abordés. C'était donc une question logique : y a-t-il des avantages par rapport à la RF ?

p.s. Est-ce que ça marche dans l'optimiseur ? Et dans le nuage ?

https://en.wikipedia.org/wiki/Deep_learning

1. Où avez-vous trouvé cette définition ? Vous êtes sérieux ? Je trouverai des liens vers des sources sérieuses quand j'aurai le temps.

2. Le principal avantage du DNN avec préapprentissage est l'apprentissage par transfert. Beaucoup plus rapide, plus précis et ... Utilisez le paquet darch.

3. toute optimisation doit être faite en R. Plus rapide, plus transparent et plus souple.

Bonne chance

 
Vladimir Perervenko:

1. Où avez-vous trouvé cette définition ? Vous êtes sérieux ? Je trouverai des liens vers des sources sérieuses quand j'aurai le temps.

2. Le principal avantage du DNN avec préapprentissage est l'apprentissage par transfert. Beaucoup plus rapide, plus précis et ... Utilisez le paquet darch.

3. toute optimisation doit être faite en R. Plus rapide, plus transparent et plus souple.

Bonne chance

À la fin de cette leçon, vous comprendrez le fonctionnement d'un modèle d'apprentissage profond simple appelé perceptron multicouche (MLP) et apprendrez à le construire dans Keras, en obtenant un degré de précision décent sur MNIST. Dans la prochaine leçon, nous décomposerons les méthodes pour des problèmes de classification d'images plus complexes (tels que CIFAR-10).
Les neurones (artificiels)

Bien que le terme "apprentissage profond" puisse être compris dans un sens plus large, il est surtout appliqué dans le domaine des réseaux neuronaux(artificiels).


https://habrahabr.ru/company/wunderfund/blog/314242/

et ici


Ils peuvent tous mentir, je ne le sais pas.)

IMHO, bien sûr.

Глубокое обучение для новичков: распознаем рукописные цифры
Глубокое обучение для новичков: распознаем рукописные цифры
  • habrahabr.ru
Представляем первую статью в серии, задуманной, чтобы помочь быстро разобраться в технологии глубокого обучения; мы будем двигаться от базовых принципов к нетривиальным особенностям с целью получить достойную производительность на двух наборах данных: MNIST (классификация рукописных цифр) и CIFAR-10 (классификация небольших изображений по...
 
A quoi servent les prédicteurs ? Une série temporelle est un prédicteur͵ Seulement le NS doit aller un peu plus loin͵.
(Depuis un téléphone portable)
 
Yuriy Asaulenko:
À quoi servent les prédicteurs ? Une série chronologique est un prédicteur.
(Depuis un téléphone portable)

Ils ont oublié de mettre (c) :))
 
Maxim Dmitrievsky:

J'ai oublié de mettre (c) :))
Et qui a été cité ?)
 
Yuriy Asaulenko:
Qui avez-vous cité ?)
Eh bien, lui-même. Une sorte d'insigne d'auteur).
 
Maxim Dmitrievsky:
À la fin de cette leçon, vous comprendrez le fonctionnement d'un modèle d'apprentissage profond simple appelé perceptron multicouche (MLP) et apprendrez à le construire dans Keras, en obtenant un degré de précision décent sur MNIST. Dans la prochaine leçon, nous décomposerons les méthodes pour des tâches de classification d'images plus complexes (telles que CIFAR-10).
Les neurones (artificiels)

Bien que le terme "apprentissage profond" puisse être compris dans un sens plus large, il est surtout appliqué dans le domaine des réseaux neuronaux (artificiels).


https://habrahabr.ru/company/wunderfund/blog/314242/

Et voilà.


Peut-être qu'ils mentent tous, je n'en suis pas conscient).

IMHO, bien sûr.

Non, ils ne le font pas. Voici une explication (tirée d'un article que je ne finirai jamais :(

Introduction

Principaux domaines de recherche et d'application

Actuellement, dans la recherche et l'application des réseaux neuronaux profonds (nous ne parlons que des réseaux neuronaux multicouches à liaison intégrale - MLP), deux grands courants ont émergé qui diffèrent dans l'approche de l'initialisation des poids des neurones dans les couches cachées.

Premièrement: il est bien connu que les réseaux neuronaux sont extrêmement sensibles à la manière dont est initialisée l'implantation des neurones dans les couches cachées, surtout lorsque le nombre de couches cachées est supérieur à 3. L'impulsion initiale de ce problème a été proposée par le professeur G. Hynton. L'idée était que les poids des neurones des couches cachées du réseau neuronal pouvaient être initialisés par des poids obtenus à partir de l'apprentissage non supervisé de réseaux associatifs automatiques constitués de RBM (machine de Boltzmann contrainte) ou d'AE (encodeur automatique). Ces réseaux RBM empilés (SRBM) et AE empilés (SAE) sont formés d'une certaine manière sur un grand ensemble de données non étiquetées. Le but de cette formation est de révéler les structures cachées (représentations, images) et les dépendances dans les données. L'initialisation des neurones du MLP avec les poids obtenus lors du pré-entraînement place le MLP dans l'espace de solution le plus proche de l'espace optimal. Il est ainsi possible, lors du réglage fin (formation) ultérieur des MLP, d'appliquer une plus petite quantité de données balisées avec moins d'époques de formation. Pour de nombreuses applications pratiques (notamment dans le traitement des "big data"), il s'agit d'avantages essentiels.

Deuxièmement : un groupe de scientifiques (Benjio et al.) a concentré ses principaux efforts sur le développement et la recherche de méthodes spécifiques pour l'initialisation des neurones cachés, de fonctions d'activation spéciales, de méthodes de stabilisation et d'apprentissage. Le succès dans cette direction est principalement dû au développement rapide des réseaux neuronaux profonds convolutifs et récurrents (DCNN, RNN), qui ont montré des résultats étonnants dans la reconnaissance d'images, l'analyse et la classification de textes et la traduction de la parole en direct d'une langue à l'autre. Les idées et les méthodes développées pour ces réseaux neuronaux ont été appliquées aux MLP avec le même succès.

Aujourd'hui, les deux directions sont activement utilisées dans la pratique. Les expériences comparatives [ ] des deux approches n'ont pas révélé d'avantages significatifs de l'une par rapport à l'autre, mais il en existe tout de même un. Les réseaux neuronaux avec préformation nécessitent beaucoup moins d'exemples pour la formation et de ressources informatiques tout en donnant des résultats presque équivalents. Pour certains domaines, il s'agit d'un avantage très important.

Bonne chance

 
Vladimir Perervenko:

Aujourd'hui, les deux approches sont activement utilisées dans la pratique. Les expériences comparatives [ ] des deux approches ne révèlent pas d'avantages significatifs de l'une sur l'autre, mais il y a un avantage. Les réseaux neuronaux avec préformation nécessitent beaucoup moins d'exemples de formation et de ressources informatiques pour des résultats presque équivalents. Pour certains domaines, il s'agit d'un avantage très important.

Bonne chance

Dernièrement, je suis revenu au GARCH, avec lequel j'étais auparavant familier. Ce qui m'a énormément surpris, après plusieurs années de fascination pour l'apprentissage automatique, c'est le nombre considérable de publications sur l'application du GARCH aux séries chronologiques financières, y compris les devises.


Avez-vous quelque chose de similaire pour les réseaux profonds ?