L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3270
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Forum sul trading, sui sistemi di trading automatizzati e sulla verifica delle strategie di trading
Apprendimento automatico nel trading: teoria, modelli, pratica e trading di algoritmi
Maxim Dmitrievsky, 2023.10.01 10:55 AM
residui_a = a_mat - a_mat. column_means residui_b = b_mat - b_mat. column_means a_residual_sums = residuals_a. column_sums b_residual_sums = residuals_b. column_sums residui_prodotti = dot_product( residuals_a. transpose, residuals_b)
correlazioni = residui_prodotti / somma_prodotti
Questo sembra essere un calcolo frontale della matrice di correlazione.
Giusto, grazie! Non capisco perché l'opzione sbagliata funziona con inCols < 100.
Apparentemente
troppo. Casuale - la correlazione media è circa 0, probabilmente.Probabilmente troppo. Casuale - c'è una correlazione media di circa 0, probabilmente.
Non si misura l'errore medio, ma la differenza massima tra gli elementi corrispondenti.
Forum sul trading, sui sistemi di trading automatizzati e sulla verifica delle strategie di trading
L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading
fxsaber, 2023.10.01 09:38 pm
Ecco perché non è chiaro come il codice sbagliato
riceva una corrispondenza.
E PearsonCorrM2 può essere accelerato di 2 volte se si conta per triangolo, cioè partendo dalla fine. Contare 100 righe con tutti, poi 99 con tutti 0-99, 99 e 100° già contati - si può semplicemente copiare. ...50° riga con tutti fino al 50°, ecc. Beh, non contare con se stesso perché =1.
Ecco perché non è chiaro come, con il codice sbagliato.
ottiene una corrispondenza.
L'ho capito: se si scambiano i calcoli delle matrici, si ottiene una mancata corrispondenza.
Vale a dire che i rifiuti della memoria durante il calcolo della prima matrice sono finiti nella nuova matrice e per qualche miracolo hanno coinciso con il risultato desiderato.
Penso che si tratti di un calcolo frontale della matrice di correlazione.
196
500 secondi contro i 14 - ecco perché ricordo che è stato
il più veloce, a causa dell'algoritmo.
Beh, sì, se lo fai su nuove matrici µl, non sarà più veloce?
Penso che tutte le 9 funzioni utilizzate in PearsonCorrM e PearsonCorrM2 possano essere riscritte in matrici e confrontate. In linea di principio, ci vorrebbe un'ora di lavoro per riscrivere le dichiarazioni e i riferimenti alle matrici. Allo stesso tempo scopriremo se le matrici sono migliori degli array din.
Titoli
IsFiniteMatrix(
IsFiniteVector(
AblasInternalSplitLength(
AblasSplitLength(
RMatrixGemmK(
RMatrixGemm(
RMatrixSyrk2(
RMatrixSyrk(
RankX(
Penso che tutte le 9 funzioni utilizzate in PearsonCorrM e PearsonCorrM2 possano essere riscritte in matrici e confrontate. In linea di principio, ci vorrà un'ora di lavoro per riscrivere gli annunci e i riferimenti alle matrici. Allo stesso tempo scopriremo se le matrici sono migliori delle matrici din.
È già tutto pronto: MQ li ha riscritti per le sue matrici.
500 sec vs 14 - ecco perché me lo sono ricordato.
il più veloce, a causa dell'algoritmo.
Non mi ero accorto dell'algoritmo. NumPy non è molto indietro solo per il fatto che non esegue calcoli ripetuti.
NumPy sembra avere un algoritmo diverso da ALglib, dato che le prestazioni sono molto diverse. Ma è chiaro che in tutta l'enorme comunità Python c'è stato qualche algoritmista molto forte che ha dedicato una discreta quantità di tempo a studiare questo problema.È già stato fatto: gli MQ li hanno riscritti per adattarli alle loro matrici.
Ed è diventato più lento?)
Ed è diventato più lento ))))
Rispetto alla vecchia versione di Alglib. Non mi risulta che sia diventato più lento.