L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1050

 
Alexander_K:

Je vous rappelle qu'Aleshenka et Koldun (qui semblent être les seuls ici à avoir du succès dans le trading sur les réseaux neuronaux)

Une preuve de cela ?

Alexander_K:

Temps très long pour préparer les données d'entrée.

C'est un peu la norme, même un novice en MO dirait "un déchet à l'entrée est un déchet à la sortie".

Alexander_K:

Je provoque délibérément, avec mes posts, leurs réactions :)))) Hélas, gardez ce secret...

))) drôle

 
mytarmailS:

Avez-vous des preuves ?

Ils suppriment presque toujours leurs messages, il suffit de communiquer avec eux en ligne.

 
Alexander_K:

Ils suppriment presque toujours leurs messages, il suffit de communiquer avec eux en ligne.

Ahh, bien, ça a du sens alors...

 
Alexander_K:

Ils suppriment presque toujours leurs messages, il suffit de communiquer avec eux en ligne.

Ils suppriment leurs posts pour ne pas se mettre dans l'embarras) et vous entretenez des mythes à leur sujet

 
Maxim Dmitrievsky:

Ils les suppriment pour ne pas s'embarrasser) et vous soutenez des mythes à leur sujet.

Peut-être bien, Max - pas d'arguments :))

 
mytarmailS:

Et Reshetov ? Eh bien, oui, il connaît le MSUA, il l'a dit une fois.

L'idée même d'énumérer les prédicteurs, de créer des modèles, puis de créer des modèles à partir de modèles de complexité croissante est, à mon avis, très correcte.

Mais c'est peut-être une erreur de chercher non pas des prédicteurs mais des solutions de systèmes de trading dans un environnement ou autre...

Je pense que c'est trop de construire des modèles les uns sur les autres, de les empiler ou autre chose. Parce que s'ils apprennent vraiment n'importe quoi, cela ne servira à rien, ce sont quelques fractions de pourcentage d'amélioration qui ne veulent rien dire.

il n'y a pas d'erreur, mais pas de modèle cohérent )

À propos, lorsque je me suis amusé avec le logiciel de Reshetov, que ce soit d'après le nom du sous-répertoire de la bibliothèque du programme ou d'après l'endroit où je me suis trouvé sur

http://www.gmdh.net/gmdh.htm

donc ça doit être la même chose. Il y a juste les librairies dans Java et son programme aussi.

Il dispose ensuite d'un tandem de 2 classificateurs - SVM et MLP, qui sont formés de manière itérative sur des caractéristiques transformées. C'est pourquoi il faut tant de temps pour que tout fonctionne.

Метод МГУА для социально экономического прогнозирования, математического моделирования, статистического анализа данных, аналитической оценки систем и программирования.
  • Григорий Ивахненко
  • www.gmdh.net
Метод Группового Учета Аргументов применяется в самых различных областях для анализа данных и отыскания знаний, прогнозирования и моделирования систем, оптимизации и распознавания образов. Индуктивные алгоритмы МГУА дают уникальную возможность автоматически находить взаимозависимости в данных, выбрать оптимальную структуру модели или сети, и...
 
Maxim Dmitrievsky:

Mais construire des modèles les uns sur les autres, les empiler ou autre chose est, à mon avis, exagéré. Parce que s'ils apprennent vraiment des bêtises, cela ne sert à rien, c'est une amélioration de quelques fractions de pour cent, ce qui ne veut rien dire.

Ne pas faire quelque chose de plus compliqué à partir de quelque chose de plus primitif, c'est un principe naturel, nous avons dérivé du sperme)) ou d'une idée si vous regardez encore plus loin)). Et maintenant nous sommes tous adultes)

Il n'y a donc rien de mal à compliquer le modèle, de plus, la complication est vérifiée par un critère externe et interne, l'erreur à l'intérieur et à l'extérieur de l'échantillon est mesurée, si l'erreur augmente avec la complication, l'algorithme s'arrête.... je ne l'ai pas encore utilisé mais la méthode me plaît beaucoup

 
mytarmailS:

Pas pour faire quelque chose de plus complexe à partir de plus primitif, c'est un principe de la nature elle-même, nous avons dérivé des spermatozoïdes)) ou de la pensée si vous regardez encore plus loin...)

Il n'y a donc rien de mal à compliquer le modèle, de plus, la complication est vérifiée par un critère externe et interne, c'est-à-dire que l'erreur à l'intérieur et à l'extérieur de l'échantillon est mesurée... bref, je ne l'ai pas appliqué moi-même, mais la méthode me plaît beaucoup...

nous prenons une matrice habituelle avec des attributs, à chaque itération nous ajoutons un nouvel attribut composé à partir de tous les attributs, nous nous réentraînons, nous remplaçons cet attribut par un autre plus complexe par le biais du polynôme de Kolmogorov, nous nous réentraînons cinq fois... jusqu'à ce que l'erreur diminue.

mais en pratique, cela n'arrivera pas sur des données bruyantes.

si l'erreur est toujours mauvaise, prenez tous ces signes polynomiaux et utilisez-les pour créer de nouveaux signes :) mais vous avez besoin d'un réseau neuronal très rapide ou d'un modèle linéaire, sinon vous devrez attendre un an.

ou encore plus facile - prenez un SVM à noyau ou un NN profond et obtenez le même résultat (en ajoutant simplement des couches dans le réseau neuronal, vous pouvez obtenir exactement le même résultat que dans les traits transformés), c'est-à-dire que des miracles se produisent.

Il dit que le GMDH est le premier analogue du NN profond.

 
Maxim Dmitrievsky:

Nous prenons une matrice ordinaire avec des attributs, à chaque itération, nous ajoutons un nouvel attribut composite à partir de tous les attributs, nous nous réentraînons, nous changeons cet attribut en un attribut plus complexe par le biais du polynôme de Kolmogorov, nous nous réentraînons cinq fois... jusqu'à ce que l'erreur diminue.

mais en pratique, cela n'arrivera pas sur des données bruyantes.

si l'erreur est toujours mauvaise, prenez tous ces signes polynomiaux et utilisez-les pour créer de nouveaux signes :) mais vous avez besoin d'un réseau neuronal très rapide ou d'un modèle linéaire, sinon vous devrez attendre un an.

ou encore plus facile - prenez un SVM à noyau ou un NN profond et obtenez le même résultat (en ajoutant simplement des couches dans le réseau neuronal, vous pouvez obtenir exactement le même résultat que dans les traits transformés), c'est-à-dire que des miracles se produisent.

Il dit que le GMDH est le premier analogue du NN profond.

Peut-être que oui, je ne discuterai pas ou peut-être que non))) J'ajouterai juste que le trader avec un super robot qui a utilisé GMDH n'a pas utilisé des polynômes mais des séries de Fourier (harmoniques) et comme nous le savons l'analyse du spectre de Fourier n'est pas applicable aux marchés financiers car elle est conçue pour des fonctions périodiques, mais néanmoins ça a marché et pareil)) Donc je ne sais pas, il faut tout essayer.

 
mytarmailS:

et pourtant ça a marché pour cet homme, et comment.

Y a-t-il une suite à l'histoire ?

J'ai observé que si un système de trading ne donne que des résultats positifs, alors il y aura une perte permanente - nous parlons de TS avec lot fixe et stoplosses.