L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3271
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
NumPy sembra avere un algoritmo diverso da ALglib.
La CPU di Maxim è due volte più veloce della mia. Non ricordo se ha fornito i tempi per Algliba, credo di no.
Confronto con la vecchia versione di Alglib. Non mi risulta che sia diventato più lento.
La CPU di Maxim è 2 volte più veloce della mia. Non ricordo se ha fornito i tempi per Algliba, credo di no.
Tempi.
Forum sul trading, sui sistemi di trading automatizzati e sulla verifica delle strategie di trading.
Machine learning nel trading: teoria, modelli, pratica e algo-trading.
Aleksey Vyazmikin, 2023.09.26 05:19 AM
Questo è su un vecchio FX-8350
Forum sul trading, sui sistemi di trading automatizzati e sul test delle strategie di trading.
Apprendimento automatico nel trading: teoria, modelli, pratica e trading di algoritmi
Aleksey Vyazmikin, 2023.09.26 05:37 AM
Per le statistiche, questo è il mio risultato
Dovrei notare che Python ha una piccola parallelizzazione quando si esegue il codice - per mezzo secondo per circa due core, il resto è contato su un core.
Tu stesso hai scritto che quello standard è più lento di quello attuale di alglibov. Ho quello vecchio sotto forma di codice, ma non il terminale.
Il sorgente stesso di Alglib è stato riscritto da MQ per le sue matrici. Non voglio nemmeno discutere il CorrCoef standard, ci sono problemi evidenti.
Esistono due sorgenti di Alglib.
Orari.
Lo stesso sorgente Alglib è stato riscritto da MQ per le sue matrici. Non voglio nemmeno discutere il CorrCoef standard, ci sono problemi evidenti.
Cioè, ci sono due sorgenti di Alglib.
NumPy sembra avere un algoritmo diverso da ALglib
In AlgLib, la documentazione originale dice perché sono diversi, quali e a cosa servono. Con le regressioni (stavo scavando soprattutto in AlgLib) è abbastanza originale.
Ancora una volta, tutto si confronta in modo strano, come non si può fare. Costruite i grafici delle dipendenze velocità=f(dimensionalità,proprietà_speciali_della_matrice) per diverse librerie/realizzazioni e guardateli. State prendendo dei casi limite, presi dal soffitto.
e lì non si guarda al valore assoluto, ma alla sintomatologia e alla presenza di un "plateau". Da lì si sceglie uno strumento per lavorare con dati specifici.
La CPU di Maxim è 2 volte più veloce della mia. Non ricordo se ha fornito i tempi per Algliba, credo di no.
Ho il mio computer attraverso la virtualizzazione, i test non saranno molto plausibili.
Inoltre ho scelto di calcolare qualcosa in python e poi trasferirlo su qualsiasi piattaforma. Per esempio, per la crittografia non hai bisogno di terminali.
In termini di velocità è una vera schifezza.Anche in questo caso, si tratta di uno strano modo di confrontare le cose, in un modo che non si può fare.
Non faccio confronti, fornisco codice che ognuno può misurare per il proprio caso.
La lunghezza della stringa di 100 è la lunghezza dello schema. Probabilmente non avete bisogno di più di questo.
15000 campioni sono limitati in memoria a causa della dimensione quadratica della matrice di correlazione. Più campioni ci sono, meglio è. Ecco perché ne ho scritto uno fatto in casa, dove è possibile averne un milione.
Non ho né voglia né tempo da dedicare al confronto oggettivo. L'ho realizzata per i miei compiti e ho condiviso il codice di lavoro. Chiunque ne abbia bisogno lo vedrà.