L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3259

 
Maxim Dmitrievsky #:

Misurazione del tempo tenendo conto della creazione della matrice

Salvare entrambe le matrici su file per riconciliare i risultati.

 
Aleksey Vyazmikin #:

Qui su R ChatGPT offre

Questa variante di R è quasi 6 volte inferiore a NumPy.

 
Aleksey Vyazmikin #:

Da quanto ho capito, python può lavorare con matrici di interi e qui le velocità sono di ordine diverso

Se il codice è corretto, il risultato è il seguente

La questione dell'accuratezza/comparabilità dei risultati dei calcoli dovrebbe essere verificata.

Giudicare in base a

Array size: 0.0762939453125 MB
La matrice calcolata è 100*100 e non 15000*15000.
 
Forester #:

La situazione peggiora con la memoria.
Prima del lancio



E durante l'esecuzione di Alglibov PearsonCorrM la memoria cresce continuamente: e sono stati visti 5 gg, 4,6 sono apparsi sullo schermo


e durante il lavoro dello standard Matrix.CorrCoef

A quanto pare, quello standard è ottimizzato per l'utilizzo minimo della memoria, mentre quello di Alglibov è ottimizzato per la velocità.

Forse il ridimensionamento dell'array avviene da qualche parte, il che è molto lento. Se si trova e si imposta la dimensione finale in una sola volta, potrebbe essere più veloce.

 

Siete meravigliosi nel tradurre qualsiasi idea in g... contando ogni sorta di risultati poco interessanti :)

Alexei è un dilettante speciale

 
fxsaber #:

Salvare entrambe le matrici su file per riconciliare i risultati.

https://drive.google.com/file/d/1ATJkHwUY8jzeRp-rdTsYBeYHor-68EPB/view?usp=share_link

 
È necessario uno strumento in grado di contare la matrice al di fuori della memoria.
Questa è la priorità principale, non la velocità di conteggio della matrice.
Perché se non si ha abbastanza RAM (e non è così), non importa la velocità di conteggio della matrice.
 
È possibile ottenere un'unità da un terabyte e contare sul disco, ci sarà un disco speciale per la matrice 💩
 
Forester #:

In base a

Viene calcolata la matrice 100*100, non 15000*15000.
15000 * 100 * 4 byte / 1024 / 10245,72 MB
 
mytarmailS #:
È necessario uno strumento in grado di contare la matrice al di fuori della memoria.
Questa è la priorità principale, non la velocità del conteggio in memoria.
Perché se non avete abbastanza RAM (e non ne avete), non importa a quale velocità viene contata la matrice.

Finora non vedo alcun ostacolo tecnico per contare una matrice milione per milione su una semplice macchina domestica. Ma il confronto tra NumPy e MQL5 è molto importante per me.