L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 858

 
Maxim Dmitrievsky:

Je n'utilise pas les algorithmes des autres.

Bien sûr, l'esprit Kulibin est une bonne chose, mais les choses les plus intéressantes et les plus nécessaires ont déjà été inventées et se trouvent dans le creux de ma main. Je ne rejetterais pas des décennies de recherche dans le monde entier.

 
Maxim Dmitrievsky:

J'en ai aussi, et il y a aussi ceux qui gagnent de l'argent mais pas toujours, et je veux en gagner toujours (ou presque). Et c'est seulement à ce moment-là que je pourrai donner des conseils.

Dans la tirelire ! Je l'insérerai chaque fois que vous commencerez à donner des conseils où vous ne savez pas :)

 
Dr. Trader:

Bien sûr, l'esprit Kulibin est une bonne chose, mais les choses les plus intéressantes et les plus nécessaires ont déjà été inventées, et se trouvent juste là, dans le creux de votre main. Je n'aurais rien contre des décennies de recherche dans le monde entier.

Rapport ? Vous me tuez avec vos affirmations vides.

 
Dr. Trader:

Dans la tirelire ! Je le mettrai chaque fois que vous commencerez à donner des conseils alors que vous ne le savez pas :)

J'ai appris qu'il est inutile de demander à un cheval mort de dire quelque chose d'intelligible, il est plus facile de descendre et de ne pas réagir.

 
Vizard_: C'est parti ! De la graisse fraîche pour les branleurs...


Après 2 minutes de travail avec une matrice de 13x6400 (10 fois plus grande que l'exemple)
Cela arrive.
Erreur : Je ne peux pas placer un vecteur de 3,2 Go.
Et il essaie de prendre 12-13 Go, alors que j'ai un total de 16 Go.


 
R occupe généralement la mémoire par morceaux, un peu à la fois. Il en a déjà pris 12-13, en veut 3 de plus, et on ne sait pas combien il en faudra plus tard.
 
Dr. Trader:
R occupe généralement la mémoire par morceaux, un peu à la fois. Il en a déjà pris 12-13, en veut 3 de plus, et qui sait combien il en aura besoin plus tard.

J'ai réduit la matrice - je ne pouvais même pas compter 13x500... Apparemment, les données du marché sans modèle le rendent fou)). Ce n'est pas comme si vous utilisiez le glucose pour déterminer le diabète.

Quelqu'un l'a-t-il essayé avec des données de marché ? Une chance ?

Enfin... Je me suis débrouillé avec 13x100 : (mais c'est idiot de trier quelque chose par 100 lignes). L'entrée n°2 semblait être la plus importante, sur les paquets précédents elle était à la fin. Cela est probablement dû au fait que l'évaluation est basée sur 100 lignes et non 6400.

Variables ordonnées ( importance décroissante) :
2 5 10 12 64 7 8 9 1 11
Scores 0,24 0,025 0,019 -0,048 -0,055 -0,057 -0,05 -0,063 -0,067 -0,072
3
Scores NA

---

Matrice des scores :
2 5 10 12 64 7 8 9 1 11
2 0.24
5 0.128 0.025
10 0.186 -0.002 0.019
12 0.015 -0.043 -0.051 -0.048
6 0.086 -0.053 -0.011 -0.068 -0.05
4 0.066 -0.029 -0.073 -0.054 -0.065 -0.055
7 0.134 -0.088 -0.101 -0.188 -0.121 -0.099 -0.057
8 0.12 -0.202 -0.069 -0.1 -0.068 -0.089 -0.061 -0.05
9 0.092 -0.004 -0.138 -0.097 -0.088 -0.069 -0.112 -0.088 -0.063
1 0.086 -0.06 -0.088 -0.107 -0.083 -0.084 -0.066 -0.081 -0.076 -0.067
11 0.095 -0.017 -0.183 -0.115 -0.083 -0.078 -0.066 -0.086 -0.066 -0.082 -0.072
3 0.059 -0.132 -0.102 -0.146 -0.114 -0.126 -0.109 -0.113 -0.131 -0.117 -0.135


 

Salut !


Le robot neuro avec IA est-il prêt ?


Essayez-le. )))



en attendant, j'ai trouvé comment faire un tick bot - pour qu'il fonctionne comme sur le testeur )))).

 

Une introduction à Greta


J'ai été surpris parGreta. J'avais supposé que les paquetstensorflow etreticulate permettraient finalement aux développeurs R d'aller au-delà des applications d'apprentissage profond et d'exploiter la plateformeTensorFlow pour créer toutes sortes d'applications statistiques de production. Mais je ne pensais pas en termes bayésiens. Après tout,Stan est probablement tout ce qu'un modélisateur bayésien pourrait souhaiter. Stan est un moteur de modélisation de distribution de probabilités puissant, de niveau production, doté d'uneinterface R astucieuse, d'une documentation approfondie et d'une équipe de développement dédiée.

Mais greta permet aux utilisateurs d'écrire des modèles bayésiens basés sur TensorFlow directement dans R! Quoi de plus charmant ? greta supprime l'obstacle que représente l'apprentissage d'un langage de modélisation intermédiaire tout en promettant de fournir des modèles MCMC performants qui s'exécutent partout où TensorFlow peut aller.

Dans ce post, je vous présenterai greta avec un modèle simple utilisé par Richard McElreath dans la section 8.3 de son livre iconoclaste :Statistical Rethinking : A Bayesian Course with Examples in R and Stan. Ce modèle cherche à expliquer le logarithme du PIB d'un pays en fonction d'une mesure de la rugosité du terrain tout en contrôlant le fait que le pays se trouve ou non en Afrique. Je vais l'utiliser juste pour illustrer l'échantillonnage MCMC avec greta. L'exemple étendu présenté dans le livre de McElreath constitue toutefois une méditation sur les subtilités de la modélisation des interactions et mérite d'être étudié.

Tout d'abord, nous chargeons les paquets requis et récupérons les données. DiagrammeR sert à tracer le diagramme de flux TensorFlow du modèle, et bayesplot est utilisé pour tracer les diagrammes de trace des chaînes de Markov. L'ensemble de données robuste qui fournit 52 variables pour 234 est assez intéressant, mais nous utiliserons un ensemble de données élagué avec seulement 170 comtés et trois variables.


library(rethinking)
library(greta)
library(DiagrammeR)
library(bayesplot)
library(ggplot2)

Le code à utiliser est le suivant.


Bonjour les inventeurs cyclistes !

 
Vizard_:

)))

Pour la première recherche, il est conseillé d'utiliser soit "peng" (plus rapide), soit "esteves".
(plus fiable mais beaucoup plus lent pour les grands ensembles de données) et, dans le cas où le nombre de
est grande (>100), limitez la recherche "forward" à "n.var = 100". Le site
La barre de progression vous donnera une idée du temps d'exécution restant.


bibliothèque(varrank)

données(nassCDS, package = "DAAG")

nassCDS.varrank <- varrank(data.df = nassCDS,
méthode = "peng",
variable.important = "mort",
variable.method = "dead", variable.method = "sturges",
algorithme = "forward",
schéma = "moyen",
verbose = FALSE)

résumé(nassCDS.varrank)
plot(nassCDS.varrank, notecex = 0.5)

Cet algorithme particulier, sélectionne-t-il des prédicteurs bons ou mauvais ?


D'une manière générale, dans la sélection des prédicteurs, qu'est-ce qui est bon et qu'est-ce qui est mauvais ?

En apparence, il s'agit de lier la sélection des prédicteurs à la performance d'un modèle.

Ça ressemble à une deuxième étape pour moi.

La première étape consiste TOUJOURS à traiter le surentraînement du modèle, une situation dans laquelle le comportement futur du modèle ne correspond pas à son comportement passé. Si nous n'avons pas d'idées à ce sujet, alors ce n'est qu'un jeu de chiffres.


Pour revenir à votre poste.

Je pense que le comportement futur du modèle sera peu différent du comportement sur les données historiques si la PRESCRIBUTION des prédicteurs lors du déplacement de la fenêtre ne change pas beaucoup.

Les rangs que le paquet calcule vont-ils changer pour un certain ensemble de prédicteurs ou non ? Il est clair que le résultat peut être différent pour différents ensembles de prédicteurs, néanmoins si (comme je l'ai fait ci-dessus) de tels messages étaient postés ici....