L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3259

 
Maxim Dmitrievsky #:

Mesure du temps en tenant compte de la création de la matrice

Sauvegarder les deux matrices dans des fichiers pour réconcilier les résultats.

 
Aleksey Vyazmikin #:

Ici sur R ChatGPT offre

Cette variante de R est presque 6 fois inférieure à NumPy.

 
Aleksey Vyazmikin #:

Si j'ai bien compris, python peut travailler avec des matrices entières et ici les vitesses sont d'un ordre différent

Si le code est correct, le résultat est le suivant

La question de la précision/comparabilité des résultats des calculs doit être vérifiée.

En jugeant par

Array size: 0.0762939453125 MB
La matrice calculée est 100*100 et non 15000*15000.
 
Forester #:

La situation s'aggrave avec la mémoire.
Avant le lancement



Et pendant l'exécution d'Alglibov PearsonCorrM, la mémoire augmente sans cesse : et 5 gg ont été vus, 4,6 ont été affichés à l'écran.


et pendant le travail du standard Matrix.CorrCoef

Apparemment, le programme standard est optimisé pour une utilisation minimale de la mémoire, et le programme Alglibov est optimisé pour la vitesse.

Il se peut qu'un redimensionnement du tableau se produise quelque part, ce qui est très lent. Si vous trouvez et définissez la taille finale en une seule fois, cela peut être plus rapide

 

Vous êtes merveilleux pour traduire n'importe quelle idée en g... en comptant toutes sortes de résultats inintéressants :)

Alexei est un amateur particulier

 
fxsaber #:

Enregistrez les deux matrices dans des fichiers afin de réconcilier les résultats.

https://drive.google.com/file/d/1ATJkHwUY8jzeRp-rdTsYBeYHor-68EPB/view?usp=share_link

 
Vous avez besoin d'un outil capable de compter la matrice en dehors de la mémoire
Il s'agit là de la principale priorité, et non de la vitesse de comptage de la matrice.
En effet, si vous n'avez pas assez de mémoire vive (et c'est le cas), la vitesse de comptage de la matrice n'a pas d'importance.
 
Vous pouvez vous procurer un lecteur de téraoctets et compter sur le disque, il y aura un disque spécial pour la matrice 💩.
 
Forester #:

D'après

La matrice 100*100 est calculée, et non 15000*15000.
15000 * 100 * 4 octets / 1024 / 10245.72 MB
 
mytarmailS #:
Vous avez besoin d'un outil capable de compter la matrice en dehors de la mémoire
C'est la principale priorité, et non la vitesse de comptage en mémoire.
En effet, si vous n'avez pas assez de mémoire vive (et c'est le cas), la vitesse de comptage de la matrice n'a pas d'importance.

Jusqu'à présent, je ne vois pas d'obstacle technique au comptage d'une matrice million par million sur une simple machine domestique. Mais la comparaison NumPy vs MQL5 est très importante pour moi.