L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2121

 
Elibrarius:

Je l'ai fait - ça n'a pas marché.

C'est bizarre... OK, je vais examiner à nouveau ce sujet - je vous tiendrai au courant plus tard.

 
Au fait, le code CatBoost a une méthode de quantification.
GreedyMinEntropy

qui ne figure pas dans la documentation officielle.

 
Maxim, pouvez-vous comparer où la vitesse d'apprentissage est plus rapide, dans python ou dans la version console de CatBoost?
 
Aleksey Vyazmikin:
Maxim, pouvez-vous comparer où la vitesse d'apprentissage est plus rapide, dans python ou dans la version console de CatBoost ?
Le même, c'est le même programme
 
Alexander_K:

C'est étrange... OK, je vais jeter un autre coup d'œil à ce fil de discussion - je ferai un rapport plus tard.

J'ai d'abord parlé par souvenir et il s'est avéré que j'avais tort.

Je viens juste de vérifier avec la validation croisée. Le temps donne encore une augmentation de 1-2% sur les nouvelles données. Alors que la prévalence totale des prédictions réussies par rapport aux prédictions non réussies est d'environ 5% à TP=SL. C'est-à-dire que de 10 à 30% de la contribution au succès provient du temps.

Cependant, il s'agit d'un test sur un morceau d'histoire de 2 mois. Sur un autre morceau d'histoire, les choses peuvent changer.
 

J'alimente le temps en cosinus et en sinus. Ce sujet a été abordé ici https://www.mql5.com/ru/forum/212376#comment_5983502

Tout comme 0...5(jour de la semaine) ou 0...23 (heure) ou 0...59 (minute) peuvent également être alimentés, mais en tant que variable catégorielle.
Le sinus et le cosinus sont déjà numériques, tout algorithme est accepté.

Обсуждение статьи "Глубокие нейросети (Часть II). Разработка и выбор предикторов"
Обсуждение статьи "Глубокие нейросети (Часть II). Разработка и выбор предикторов"
  • 2017.07.31
  • www.mql5.com
Опубликована статья Глубокие нейросети (Часть II). Разработка и выбор предикторов: Автор: Vladimir Perervenko...
 

il existe une tendance relativement nouvelle appelée apprentissage actif. Il peut auto-échantillonner les données de la meilleure façon possible. Elle semble convenir à mon approche (échantillonnage aléatoire). Je ne l'ai pas encore fait.

https://libact.readthedocs.io/en/latest/overview.html

https://medium.com/towards-artificial-intelligence/how-to-use-active-learning-to-iteratively-improve-your-machine-learning-models-1c6164bdab99

Overview — libact 0.1.3 documentation
  • libact.readthedocs.io
libact is a Python package designed to make active learning easier for real-world users. The package not only implements several popular active learning strategies, but also features the active-learning-by-learning meta-algorithm that assists the users to automatically select the best strategy on the fly. Furthermore, the package provides a...
 
mytarmailS:

Au fur et à mesure, les fréquences et éventuellement les phases flottent... Les amplitudes se maintiennent...

Voici la prévision pour 500 points du modèle ajusté sur l'historique de 10k de 4 harmoniques

Nous pouvons voir que la prévision est exacte pour les 500 points, mais que les fréquences sont fluctuantes et utilisent un algorithme incompréhensible.

Et ce n'est qu'un exemple illustratif, parfois c'est encore pire.

Avez-vous essayé par incréments ?

"L'une des propriétés utiles d'une série d'incréments est la plus grande stabilité du spectre par rapport au processus original. ".C'est l'écriture de Goodman.

 
elibrarius:

J'alimente le temps en cosinus et en sinus. Ce sujet a été abordé ici https://www.mql5.com/ru/forum/212376#comment_5983502

Tout comme 0...5(jour de la semaine) ou 0...23 (heure) ou 0...59 (minute) peuvent également être alimentés, mais en tant que variable catégorielle.
Le sinus et le cosinus sont déjà numériques, tout algorithme est accepté.

Pouvez-vous afficher la fonction qui convertit le temps en sinus/cosinus ? J'essaierais aussi cette méthode. Dans l'article que j'ai publié, le nombre d'heures s'est avéré être un facteur prédictif significatif. Je me demande si cette méthode est adaptée aux modèles en bois ou plutôt aux réseaux neuronaux.