L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2808
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Votre script fonctionne depuis plus d'un jour et n'a pas encore créé un seul fichier sur la base des résultats du screening. Je ne sais pas, il est peut-être temps de l'éteindre ?
Cela dépend du zhekez et de la taille de l'échantillon. Si votre processeur est multicœur, parallélisez l'exécution. Voici une variante de l'exécution parallèle
Quatre fois plus rapide que l'exécution en série. Matériel et logiciel
Bonne chance
tout est là. La vitesse sera catastrophiquement affectée. Les images de données sont les bêtes les plus lentes avec des frais généraux importants.
Il ne s'agit pas de cartes vidéo, il s'agit de comprendre que de telles choses ne comptent pas à travers les images de données dans un état sobre.
Qu'entend-on par "images de données" ? Expliquez-le aux ignorants dans ce langage.
Conseil : Est-il nécessaire d'utiliser des vecteurs de 100 000 observations pour voir la corrélation entre eux ?
Je recherche des vecteurs fortement corrélés, c'est-à-dire dont la corrélation est supérieure à 0,9.Je ne sais pas si c'est nécessaire ou non - vous devriez expérimenter. L'échantillon n'est pas stationnaire - pendant la moitié de l'échantillon, il n'y avait pas de corrélation, puis bang, puis elle est apparue.
De plus, j'ai essayé tous les coefficients par pas de 0,1.
De rien.
Est-ce le cri de l'âme ?
Cela dépend du zhekez et de la taille de l'échantillon. Si le processeur est multicœur, il faut paralléliser l'exécution. Voici une variante de l'exécution parallèle
Elle est 4 fois plus rapide que l'exécution en série. Matériel et logiciel
Bonne chance
Le parallélisme n'augmente donc pas la consommation de mémoire vive ?
Bien que le code de mytarmailS soit plus gourmand en RAM, il est 50 fois plus rapide, il y a peut-être des limitations des bibliothèques que vous utilisez - le script a fonctionné pendant plus de 30 heures et n'a pas créé un seul fichier.
Merci pour ces exemples de codes compliqués - en R, je suis plutôt un simple consommateur, je n'arrive pas à savoir ce qu'il faut corriger dans le script principal.
Voulez-vous dire que pour chaque type de données, il devrait y avoir une méthode pour calculer corr ?
matrix est un type de données intégré à R, il a quelque chose comme matrix.corr() vector.
Qu'entend-on par "dataframes" ? Expliquez aux ignorants de ce langage.
Il s'agissait plutôt d'un message aux auteurs de R :) il s'agit de tableaux permettant un affichage pratique des données et quelques manipulations typiques telles que l'extraction de sous-échantillons (comme en SQL).
Ils ne sont pas conçus pour être utilisés en boucle sur des données aussi volumineuses que les vôtres, ce qui serait 20 à 100 fois plus lent que des tableaux. Par mémoire, vous avez déjà compris par vous-même.
Je pense que tout va bien ici :
Je ne sais pas si le type intégré "matrix" est rapide, mais il utilise le caret, qui peut également ralentir. Le type intégré n'a pas d'opération vectorielle pour calculer la corrélation ou quelque chose comme ça.
D'où viennent ces pensées
pourquoi ralentir un type intégré au lobe gauche, qui devrait avoir son propre calcul du corr, aussi vite que possible pour lui ?
Pourquoi ralentir un type intégré qui devrait avoir son propre calcul de Korr aussi rapide que possible ?
La librairie ne prend-elle pas en compte le type ? Le type de données est comme des données pour les calculs les moins chers. La même matrice devrait être conçue pour les calculs.
Comment devenir plus intelligent dans le futur sans devenir plus stupide dans le passé ? Algorithmiquement... sans créer des téraoctets de connaissances.
Ce n'est pas le cas.