L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 427

 
Mihail Marchukajtes:

En principe, cela n'a pas d'importance. Il n'y a aucun pouvoir prédictif là.....

C'est comme si l'on regardait les fonds propres et que l'on divisait le bénéfice par le drawdown.

Et plus les prévisions sont bonnes, plus le SR

 
Aliosha:

Alors, qu'est-ce que la prévision a à voir avec ça, c'est comme regarder l'équité avec les yeux et diviser le profit par le drawdown, c'est à peu près SR

Et plus les prévisions sont bonnes, plus le SR est élevé.


Et dans ce cas. Alors oui. Tout à fait d'accord....

 
SanSanych Fomenko:

Pouvez-vous me dire, vous avez écrit ici https://www.mql5.com/ru/blogs/post/160258 que la RF est le meilleur classificateur parmi ceux proposés, je suis d'accord avec cela. Et qu'en est-il du diplômer de 3ème génération (avec les autoencodeurs), avez-vous fait des tests comparatifs ?

Нужны ли нам сотни классификаторов для решения проблем классификации реального мира?
  • 2014.11.13
  • СанСаныч Фоменко
  • www.mql5.com
В статье оценивается доступные сегодня 179 классификаторов, принадлежащих к 17 семействам (дискриминантный анализ, Байес, нейронные сети, машины векторов поддержки SVM , деревья решений, основанные на...
 
Aliosha:



À propos de GARCH , pour autant que je sache, il s'agit d'un modèle linéaire pour prédire la volatilité, il ne prédit pas la direction du marché, ou bien ai-je tort ?

GARCH est un modèle de volatilité, il prédit la direction et la taille de la prochaine bougie. Le cadre temporel peut être différent : M5, M30, D1, n'importe lequel. Mais généralement, il s'agit d'une TF peu profonde jusqu'au trading à haute fréquence.

Ce qui m'attire dans l'utilisation du GARCH est l'analyse de la cotation initiale pour prouver que le GARCH formé se comportera de la même manière dans le passé et dans le futur.

L'idée est de lutter contre la non-stationnarité (moyenne variable et écart variable par rapport à la moyenne), qui est considérée comme le principal mal pour les performances futures du conseiller expert.

Le modèle lui-même comporte trois composantes :

Au départ, les incréments de prix sont calculés. Ensuite, des formules sont écrites pour cet incrément :

1. pour le comportement de la moyenne

2. pour le comportement de déviation par rapport à la moyenne (volatilité). Il existe de nombreuses variantes, notamment des variantes exponentielles et à seuil (je parle de la linéarité du modèle).

3. la loi de distribution de la moyenne.


S'il était possible de choisir "correctement" les paramètres de toutes ces parties, le résidu devrait être normalement distribué, ce qui est une garantie du comportement du modèle dans le futur similaire aux données historiques.


Quelque chose comme ça, très grossièrement.

 
Maxim Dmitrievsky:

Pouvez-vous me dire, vous avez écrit ici https://www.mql5.com/ru/blogs/post/160258 que la RF est le meilleur classificateur parmi ceux proposés, je suis d'accord avec cela. Et qu'en est-il des diplômes de 3ème génération (avec encodeurs automatiques), avez-vous eu des tests comparatifs ?

J'ai entendu dire que le "diplinking" est un peu différent, il s'agit de la recherche automatique de caractéristiques SIMPLES, dans des structures hiérarchiques, comme des images ou du texte, dont les coins et les lignes sont des figures simples avec des formes plus complexes et ainsi de suite. Pour ce qui est des séries chronologiques, ce n'est pas tout à fait la même chose. Donc, si un réseau neuronal à convolution profonde trouve de manière cool des chats et des visages sur des photos, cela ne veut pas dire qu'il prédit de manière cool le marché. De plus, tout ce qui est "profond" est très compliqué pour les utilisateurs, même pour ceux qui ont recréé tout le réseau à partir de zéro en C++ 10 fois, de nombreux paramètres sont très instables, les résultats sont aléatoires. Vous devez y faire face pendant de nombreuses années. Mais ce n'est pas mon avis, je n'ai jamais essayé et je ne le ferai probablement pas.

 
Aliosha:

Ce n'est pas un mauvais résultat, c'est fantastique, je suis sûr que même Renaissance n'a rien de tel avec leurs téraoctets de données par jour. Regardez le live-score sur numer.ai et pensez pourquoi ils ont au moins 45% de taux d'erreur(logloss~0.69) et vous 30%.

Mais ce que vous dites est vrai, vous avez créé votre fonction cible synthétique, qui est fonctionnellement liée aux caractéristiques d'une manière intelligente (évidemment pas évidente pour vous) et vous avez une si belle jauge sur Lorn et test, tout semble correct... Mais vous n'êtes pas encore milliardaire, bien que vous pourriez facilement le devenir dans environ un an si vous aviez 30% d'erreur dans la prédiction de la couleur de la prochaine bougie, c'est parce que vous ne prédisez pas le futur mais le passé mélangé au futur via un indicateur. Essayez de prédire un futur pur rapatrié et tout se mettra en place.

Vous avez dit beaucoup de choses monsieur, mais vous n'avez rien dit de substantiel, alors qu'on vous a immédiatement proposé de montrer, et non de crier à tout le monde ce qui ne va pas avec ZZ et ce qui est nécessaire.

 
Liste de livres, vidéos et cours sur l'apprentissage automatique et les mathématiques, tous en russe. Une large sélection de haute qualité. Presque tous les pdf des livres sont googables.
https://ru.stackoverflow.com/a/683632/1084
Книги и учебные ресурсы по машинному обучению
Книги и учебные ресурсы по машинному обучению
  • ru.stackoverflow.com
Для тех, кто хочет на русском языке почитать: Хараламбос Марманис, Дмитрий Бабенко Алгоритмы интеллектуального Интернета. Передовые методики сбора, анализа и обработки данных источник К. В. Воронцов. Математические методы обучения по прецедентам (теория обучения машин) источник Мерков А.Б. Введение в методы статистического обучения...
 
Zhenya:

J'ai entendu dire que le diplanning est un peu différent, il s'agit de la recherche automatique de caractéristiques SIMPLES, dans des structures hiérarchiques telles que des images ou du texte, où les bords sont des coins et des lignes avec des formes simples dont certaines sont plus complexes et ainsi de suite. Pour ce qui est des séries chronologiques, ce n'est pas tout à fait la même chose. Donc, si un réseau neuronal à convolution profonde trouve de manière cool des chats et des visages sur des photos, cela ne veut pas dire qu'il prédit de manière cool le marché. De plus, le "profond" est un énorme problème pour les utilisateurs, c'est un énorme problème même pour ceux qui ont recréé le réseau entier à partir de zéro en C++ 10 fois, de nombreux paramètres sont très instables, les résultats sont aléatoires. Vous devez y faire face pendant de nombreuses années. Mais ce n'est pas mon avis, je ne l'ai jamais essayé et ne l'essayerai probablement jamais.

Ce n'est pas aussi mauvais que tu le dis.

Ce n'est pas très difficile, commencez par ces quelques articles(1, 2, 3, 4). Tout ne fonctionnera pas en même temps et cela n'aura pas de sens, mais ce sera utile.

Bonne chance

 
Gianni:

J'ai entendu dire que le diplanning est un peu différent, il s'agit de la recherche automatique de caractéristiques SIMPLES, dans des structures hiérarchiques telles que des images ou du texte, où les bords sont des coins et des lignes avec des formes simples dont certaines sont plus complexes et ainsi de suite. Pour ce qui est des séries chronologiques, ce n'est pas tout à fait la même chose. Donc, si le réseau neuronal à convolution profonde trouve de manière cool des chats et des visages sur des photos, cela ne signifie pas qu'il prédit de manière cool le marché. De plus, le "profond" est très compliqué pour les utilisateurs, même pour ceux qui ont recréé le réseau entier à partir de zéro en C++ 10 fois, de nombreux paramètres sont très instables, les résultats sont aléatoires. Vous devez y faire face pendant de nombreuses années. Mais ce n'est pas mon avis, je ne l'ai jamais essayé et ne l'essayerai probablement jamais.

Je vois, je pense que dans la pratique personne ici et n'a pas comparé :) Je vais chercher des informations, que dans la fin de ne pas être trompé s'il s'avère que le diplerning ne donne pas des avantages sur les bois. Et comme la pièce constitutive est une MLP, il se pourrait bien qu'elle n'en ait pas...

A propos, tout ce qui comporte plus de 2 couches est appelé diplerning, MLP avec 2 couches cachées est aussi diplerning. Je faisais référence aux filets profonds, que Vladimir décrit dans l'article du lien ci-dessus.

Bien qu'on dise que les prédicteurs sont les plus importants, car les modèles fonctionnent de la même manière... mais c'est de la théorie, en pratique il s'avère que la sélection du modèle est aussi très importante, par exemple un compromis entre la vitesse et la qualité, car le NS est généralement long...

En pratique, le mix P-MT5 via une libu est trop lent et pas pratique, j'ai besoin d'un natif sans logiciel gaucher ou d'une connexion directe au serveur P depuis MT5, mais un natif est mieux. Je veux réécrire le réseau neuronal dont j'ai besoin sur mql avec C++ et c'est tout.

ah, j'ai oublié d'ajouter IMHO

 

Ahem... ahem... J'ai réfléchi, réfléchi...

Il existe un grand nombre de modèles, depuis les classiques comme ARMA/GARCH jusqu'aux percées complètes comme CNN/LSTM, en passant par le modèle MLP préféré de tous, , etc. Mais comment unifier tout cela ? pour que, par exemple, nous puissions échanger/vendre des modèles formés dans un format universel, lisible partout sans bibliothèques et formations spéciales, qui ont essayé de passer à quelqu'un un modèle pas trivial probablement comprendre ce que je veux dire)))).

Et puis j'ai réalisé que le num.ai - a résolu ce problème ! Ce qu'ils leur envoient en réalité n'est pas seulement des prédictions, mais un modèle prêt à l'emploi débile, échantillonné avec suffisamment de précision. En fait, il devrait en être ainsi, sinon comment pouvez-vous obtenir des fics du futur à l'avance pour leur donner une réponse, les fics sont en temps réel, vous ne pouvez pas les connaître à l'avance. Mais si nous remplissons un espace à N dimensions avec une grille de points, alors un nouveau point, le(s) plus proche(s) de la grille, qui sont recherchés instantanément comme élément du tableau par index. Et tout modèle simple et délicat peut se transformer en un tel modèle, facilement transférable et utilisable sans en révéler les secrets.

Respect à numer.ai, l'idée est super !

Je propose de réfléchir à la façon dont il peut être utilisé dans notre misérable communauté))))