L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1526

 
La régression et la classification sont des tâches que les forêts et les réseaux neuronaux peuvent effectuer.
La descente de gradient est une méthode par laquelle les réseaux neuronaux sélectionnent les poids/multiplicateurs/déplacements des neurones.
 
elibrarius:
La régression et la classification sont des tâches que les forêts et les réseaux neuronaux peuvent effectuer.
La descente de gradient est la méthode par laquelle les réseaux neuronaux sélectionnent les poids/multiplicateurs/déplacements des neurones.

Merci, mais ce n'est pas ce que je voulais dire.
Sur la similitude du résultat final, la régression et la descente de gradient.
La régression trouve le point intermédiaire entre les voisins, la descente de gradient trouve le point le plus proche.
Il me semble essentiellement que les algorithmes de recherche sont similaires dans le résultat final.
La différence serait l'erreur de déviation. Je me demandais donc lequel des deux donnerait une erreur plus faible ?
Il me semble que la descente de gradient sera plus précise que la régression.

Ce que je veux dire, c'est que, par exemple, s'il y a un professeur, la sortie du réseau devrait être une copie du professeur, avec un minimum d'erreurs.
Je n'arrive donc pas à décider quel modèle utiliser avec quel algorithme.

 
Romain:

Merci, mais ce n'est pas ce que je voulais dire.
Sur la similarité du résultat final, la régression et la descente de gradient.
La régression trouve le point médian entre les voisins, la descente de gradient trouve le point le plus proche possible.
Il me semble essentiellement que les algorithmes de recherche sont similaires dans le résultat final.
La différence serait l'erreur de déviation. C'est ce que je pensais qui donnerait une erreur plus petite.
Je pense que la descente de gradient sera plus précise que la régression.

 
Maxim Dmitrievsky:

Je n'aurais pas attendu d'autre réponse.

 
Romain:

Merci, mais ce n'est pas ce que je voulais dire.
Sur la similarité du résultat final, la régression et la descente de gradient.
La régression trouve le point intermédiaire entre les voisins, la descente de gradient trouve le point le plus proche.
Il me semble essentiellement que les algorithmes de recherche sont similaires dans le résultat final.
La différence serait l'erreur de déviation. Je me suis donc demandé lequel des deux donnerait une erreur plus faible.
Il me semble que la descente de gradient sera plus précise que la régression.

Ce que je veux dire, c'est que, par exemple, s'il y a un professeur, la sortie du réseau devrait être une copie du professeur, avec un minimum d'erreurs.
Je n'arrive donc pas à décider quel modèle utiliser avec quel algorithme.

La régression et la classification sont le résultat d'une boîte noire. La descente est ce qui se passe à l'intérieur. Ces choses ne peuvent être comparées les unes aux autres. C'est comme une image sur un écran de télévision (le résultat) et le principe de fonctionnement d'une résistance qui se trouve à l'intérieur de cette télévision.

Romain:


Je n'arrive donc pas à décider quel modèle utiliser avec quel algorithme.

Aucun des algorithmes n'a de sens. Le marché est SB (si vous regardez uniquement les prix).
Le mode opératoire fonctionne quand il y a un modèle. Personne dans ce fil de discussion, depuis plusieurs années, n'a trouvé quelque chose qui rapporte de façon constante.
Sauf si vous entraînez votre cerveau))

 
elibrarius:

Aucun des algorithmes n'a de sens. Le marché est SB (si vous regardez uniquement les prix).
Le mode opératoire fonctionne quand il y a un modèle. Personne dans ce fil de discussion, sur plusieurs années, n'a trouvé quelque chose qui rapporte de façon constante.
Ils entraînent juste leurs cerveaux)).

Vous ne pouvez gagner régulièrement qu'en scalpant prudemment et en suivant strictement les principales tendances - précédente, actuelle et suivante.

 
elibrarius:

La régression et la classification sont le résultat d'une boîte noire. La descente est ce qui se passe à l'intérieur. Ces choses ne peuvent être comparées les unes aux autres. C'est comme l'image sur l'écran de la télévision (le résultat) et le principe de la résistance qui se trouve à l'intérieur de cette télévision.

Il n'y a aucun intérêt à utiliser l'un ou l'autre algorithme. Le marché est SB (si vous regardez uniquement les prix).
Le mode opératoire fonctionne quand il y a un modèle. Personne dans ce fil de discussion, sur plusieurs années, n'a trouvé quelque chose qui rapporte de façon constante.
Ils entraînent juste leurs cerveaux)).

Merci pour cette précision.
Le fait est qu'avec le MO, je n'ai pas l'intention de chercher des modèles sous une forme pure.
J'essaie de créer un outil permettant de détecter ces modèles.
Je dois donc choisir le bon type d'algorithme pour copier le professeur à la sortie du réseau, avec une erreur minimale.
Dans ce cas, le réseau ne cherche pas de modèle, il se contente de copier le professeur.

 
Romain:

Merci pour cette précision.
C'est le problème, je n'ai pas l'intention de chercher des modèles sous forme pure avec le MO.
J'essaie de créer un outil permettant de détecter ces modèles.
Je dois donc choisir le bon type d'algorithme pour copier le professeur à la sortie du réseau, avec une erreur minimale.
Dans ce cas, le réseau ne cherche pas de régularités, il se contente de copier l'enseignant.

Le passé (c'est-à-dire l'enseignant) est bien mémorisé par la forêt et les SN. Mais à l'avenir, ce sera 50/50
 
Elibrarius:

Aucun des algorithmes n'a de sens. Le marché est SB (si vous regardez uniquement les prix).

Le mode opératoire fonctionne quand il y a un modèle. Personne dans ce fil, depuis plusieurs années, n'a trouvé quelque chose qui fonctionne de manière constante.

Que ce soit SB.

Mais le SB, ou plutôt le processus aléatoire, présente aussi des régularités. Nous en avons parlé plus d'une fois dans la branche "De la théorie à la pratique" - il s'agit d'une variance stationnaire, conséquence de l'équation d'Einstein-Smoluchowski et du retour au point de départ = 66% en marche bidimensionnelle et de la convergence vers la distribution gaussienne d'un grand nombre de variables aléatoires indépendantes... Oui, beaucoup de choses... Il existe toute une théorie des processus aléatoires et il est possible de gagner au SB, quoi qu'on en dise.

Alors pourquoi le MO échoue-t-il dans cette tâche ? Question philosophique, conceptuelle. Je ne connais pas la réponse à cette question...

 
Alexander_K:

Que ce soit SB.

Mais, après tout, le SB, ou plutôt un processus aléatoire, a aussi des régularités. Nous en avons discuté plus d'une fois dans la branche "De la théorie à la pratique" - il s'agit d'une variance stationnaire, conséquence de l'équation d'Einstein-Smoluchowski et du retour à l'origine = 66% dans le vagabondage bidimensionnel et de la convergence vers la distribution gaussienne de la somme d'un grand nombre de variables aléatoires indépendantes... Oui, beaucoup de choses... Il existe toute une théorie des processus aléatoires et il est possible de gagner au SB, quoi qu'on en dise.

Alors pourquoi le MO échoue-t-il dans cette tâche ? Question philosophique, conceptuelle. Je ne connais pas la réponse à cette question...

Je dois terminer le sujet cet automne, sinon cela va devenir ennuyeux. J'ai passé beaucoup de temps à étudier les compléments des réseaux neuronaux, puis la théorie des applications, que personne n'a jamais développée pour les marchés financiers. D'une manière ou d'une autre, les spécialistes des données l'évitent avec dégoût.

J'ai un abonnement payant à toutes sortes de documents universitaires et de recherches de professeurs, mais ils fonctionnent tous avec des options, la plupart du temps. Ils pensent qu'il est prouvé qu'il n'y a rien à attraper sur place.