L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2396

 
Maxim Dmitrievsky:
Oui, vous pouvez l'obtenir dans mes articles. Eh bien, le testeur est le plus facile. Je peux vous envoyer quelques exemples de robots basés sur Python.

Eh bien, j'ai aussi quelque chose - fondé sur un test rapide de mes idées. Mais j'ai l'habitude de l'utiliser dans un testeur normal. Pensez-vous que cela vaut la peine de se débarrasser de cette habitude ? )

 
Aleksey Nikolayev:

Eh bien, j'ai moi aussi quelque chose à proposer, qui me permet de tester rapidement mes idées. Mais c'est déjà un peu une habitude de finir par l'exécuter dans le testeur régulier. Pensez-vous que cela vaut la peine de se débarrasser de cette habitude ? )

J'aime les deux, tant que vous pouvez porter le modèle rapidement.
 

Les MacBooks se déchirent et jurent avec les nouveaux processeurs dans les tâches du ministère de la Défense. La mauvaise nouvelle est que CatBoost ne supporte pas encore l'architecture arm, mais ils y travaillent.

Conclusion

D'après ces tests, il apparaît que

  • pour l'entraînement des MLP et des LSTM, le CPU M1 est de loin beaucoup plus rapide que tous les serveurs haut de gamme testés
  • pour l'entraînement du CNN, M1 n'est que légèrement plus lent que les serveurs haut de gamme testés.

Bien entendu, ces mesures ne peuvent être considérées que pour des types et des profondeurs de réseaux neuronaux similaires à ceux utilisés dans ce test.

Pour les formations importantes et les calculs intensifs qui durent plus de 20 minutes, j'opterai toujours pour les solutions basées sur le cloud computing, car elles fournissent des cartes conçues pour des charges aussi longues et lourdes et permettent d'envoyer plusieurs tâches simultanément. Mais ce scénario ne concerne qu'une recherche spécifique qui ne représente que 10 % de mon travail, essentiellement pour un usage professionnel dans un secteur d'activité spécifique.

En tant qu'ingénieur en apprentissage automatique, pour mes recherches personnelles quotidiennes, le Mac M1 est clairement la meilleure option et la plus rentable aujourd'hui.

https://towardsdatascience.com/benchmark-m1-part-2-vs-20-cores-xeon-vs-amd-epyc-16-and-32-cores-8e394d56003d

Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
  • Fabrice Daniel
  • towardsdatascience.com
In the first part of M1 Benchmark article I was comparing a MacBook Air M1 with an iMac 27" core i5, a 8 cores Xeon(R) Platinum, a K80 GPU instance and a T4 GPU instance on three TensorFlow models. While the GPU was not as efficient as expected, maybe because of the very early version of TensorFlow not yet entirely optimized for M1, it was...
 
Alors, comment vont les fauconniers ? Vos filets sont-ils devenus intelligents ou avez-vous fait une percée technologique ? Parlez-moi de ce projet !!!!
 

Quelqu'un connaît-il ce type de formation des enseignants ?

Lorsque l'enseignant n'est pas une étiquette mais la personne elle-même, la personne clique sur l'image qui lui plaît, et l'AMO essaie de séparer cette image de tout le reste et de retrouver les mêmes images avec le même résultat dans la structure de l'image...


Quelqu'un sait-il s'il existe une telle formation et si oui, comment s'appelle-t-elle ?

Je sais comment le mettre en œuvre, mais peut-être existe-t-il une solution toute faite ?

 
Moi aussi, j'ai envie de parler à voix haute. Une réflexion sur le thème de la non-stationnarité. L'utilisation de la méthode du K-plus-voisin dans ses conditions est claire. Nous prenons les N derniers motifs dans le temps, parmi lesquels nous choisissons K le plus proche du motif en formation et prenons une décision en fonction de celui-ci. La simplicité vient du fait qu'il n'y a pratiquement pas d'apprentissage. Je me demande s'il existe d'autres algorithmes de MO faciles à utiliser de manière similaire.
 
Aleksey Nikolayev:
Je voulais aussi exprimer une pensée à voix haute. Une réflexion sur le thème de la non-stationnarité. La façon d'utiliser la méthode du K-plus-voisin est claire dans ses conditions. Nous prenons les N derniers motifs dans le temps à partir desquels nous choisissons K voisins les plus proches et prenons une décision en fonction d'eux. La simplicité vient du fait qu'il n'y a pratiquement pas d'apprentissage. Je me demande s'il existe d'autres algorithmes de MO qui sont faciles à utiliser de manière similaire ?

J'ai fait beaucoup de recherches et d'investigations sur cette méthode ainsi que sur la méthode elle-même, je ne sais pas pourquoi mais c'est la plus proche et la plus intuitive pour moi...

Cette méthode fait partie de la famille des "prédictions sans modèle".

Elle est connue sur le Net sous le nom de "prédiction par analogues de la préhistoire", "méthode de complexation des analogues de MSUA" etc...

Autrefois, il était utilisé pour les prévisions météorologiques...

Il s'agit essentiellement du regroupement habituel, mais plus précis... La différence est seulement que dans le clustering habituel le centre d'un cluster (prototype) est quelque chose au milieu entre les analogues, et la méthode donnée le centre d'un cluster est le prix actuel ou autre, ainsi il est possible de trouver des analogues plus précisément pour le moment actuel...

J'ai même cherché des modèles multidimensionnels, j'ai même inventé ma propre mini méthodologie pour rechercher des modèles dans la préhistoire, donc je suis très à fond dans ce sujet...

 
mytarmailS:

J'ai fait beaucoup de recherches et d'investigations avec cette méthode et la méthode elle-même, je ne sais pas pourquoi mais c'est la plus proche et la plus intuitive pour moi.

Il fait partie de la famille "pas de prédiction de modèle".

Elle est connue sur le Net sous le nom de "prédiction par analogues de la préhistoire", "méthode de complexation des analogues de MSUA" etc...

Autrefois, il était utilisé pour les prévisions météorologiques...

Il s'agit essentiellement du regroupement habituel, mais plus précis... La différence est seulement que dans le clustering habituel le centre d'un cluster (prototype) est quelque chose au milieu entre les analogues, et la méthode donnée le centre d'un cluster est le prix actuel ou autre, ainsi il est possible de trouver des analogues plus précisément sous le moment actuel...

J'ai même cherché des modèles multidimensionnels, j'ai même inventé ma propre mini-méthode pour chercher des modèles dans la préhistoire, donc je suis très à fond dans ce sujet...

La méthode est intuitivement évidente, il est donc impossible de l'éviter. Mais je veux un peu de variété. Par exemple, un simple réentraînement de modèle, lorsqu'un nouvel exemple est ajouté et que ceux qui sont obsolètes sont éliminés.

 

Aleksey Nikolayev:

Un réentraînement simple du modèle, où un nouvel exemple est ajouté et les exemples obsolètes sont éliminés.

Ou de jeter des exemples obsolètes lorsque le temps est trop important par rapport aux autres.

 
Aleksey Nikolayev:

Ou de jeter des exemples obsolètes lorsque le temps s'avère être une caractéristique trop importante par rapport aux autres.

Je ne vois pas quelle est la différence entre votre idée et le recyclage constant de l'AMO dans la fenêtre glissante...


Vous prenez les n dernières images de l'image actuelle, triées par temps, faites une prédiction basée sur elles, qu'est-ce que c'est censé accomplir ?

Il suffit de se recycler dans une fenêtre glissante comme avec l'AMO ci-dessus, quel est l'avantage ?