L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2807
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
L'ho scambiato e sembrava tutto a posto.
.
.
Il vostro script consuma quasi 9 gigabyte di RAM sul mio campione, ma sembra funzionare, i file vengono salvati. Non so nemmeno dove viene consumata la memoria, mentre il campione richiede poco più di un gigabyte.
.
Ho anche scoperto che le intestazioni della tabella (nomi delle colonne) vengono salvate tra virgolette: come si può disattivare?
Cosa fa questo codice? Per renderlo più veloce, si dovrebbero convertire tutte le colonne nello stesso tipo di dati (float 32, 16 - non è necessario, sarà più lento) e calcolare il coRR attraverso array veloci.
se stiamo parlando della correzione reale del kaRma
Il vostro script consuma quasi 9 gigabyte di RAM sul mio campione, ma sembra funzionare, i file vengono salvati. Non so nemmeno dove viene utilizzata la memoria, mentre il campione occupa poco più di un gigabyte.
Quindi?
R male probabilmente)
Ho anche trovato un problema - le intestazioni nella tabella (nomi delle colonne) sono salvate tra virgolette - come disattivarle?
cosa hai fatto per risolvere il problema?
E allora?
R è male, credo).
cosa avete fatto per risolvere il problema?
Cattivo/buono è un giudizio troppo critico.
È ovvio che il codice del pacchetto non è efficiente in termini di memoria ma può essere veloce, oppure che lo script copia l'intera tabella e la selezione molte volte.
E cosa hai fatto: hai trovato il problema e lo hai segnalato a un professionista sperando che ti aiutasse.
Cosa fa questo codice? Per la velocità, si dovrebbero convertire tutte le colonne nello stesso tipo di dati (float 32, 16 - non è necessario, sarà più lento) e calcolare il numero di colonne utilizzando array veloci.
se stiamo parlando della vera correzione del kaRma
Per quanto ne so, in R non esiste il concetto di tipi di dati diversi (int, float, ecc.). E questo ridurrà la dimensione della memoria, ma non influirà molto sulla velocità. Per quanto riguarda le schede video, sì, ci sarà un aumento.
Per quanto ne so, in R non esiste il concetto di tipi di dati diversi (int, float, ecc.). Inoltre, ridurrà la dimensione della memoria, ma non influirà molto sulla velocità. Per quanto riguarda le schede video, sì, ci sarà un aumento.
È tutto lì. La velocità ne risentirà in modo catastrofico. I dataframe sono le bestie più lente e con più overhead.
Non si tratta di schede video, ma di capire che queste cose non contano attraverso i dataframe in uno stato sobrio.
Suggerimento: è necessario utilizzare vettori di 100.000 osservazioni per vedere la correlazione tra di essi?
Sto cercando vettori altamente correlati, ovvero con una correlazione superiore a 0,9.