L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3166

 
СанСаныч Фоменко #:

Sei solo fastidioso, guru! Non so io, ma tu sì: guarda nel tuo mercato!

Ti è rimasto qualcosa oltre alla penosa percezione del mondo che ti circonda e alla santa fede nei pacchetti, o il salvadanaio è esaurito? )

Ogni giorno leggo di pacchi di cui non si sa nulla.

O è il giorno della marmotta?
 
Forester #:

è ora di porre fine a questo epico tentativo di trovare schemi in dati casuali.

Già.

oppure è ora di smettere di pensare all'inerzia e di dare un'occhiata sobria ai risultati.

 
Forester #:

I risultati dell'apprendimento attraverso il corsetto spesso non sono male

Dal 10 al 21 anno è stato trovato un corsetto con una frazione del 30% (il 30% della storia casuale di questo sito ha partecipato all'apprendimento), gli altri anni in genere sono stati puramente OOS.

Nel terminale si presenta così


 

Esistono molti metodi per determinare il coreset. Ecco alcuni dei metodi più diffusi:

  • Sottoinsieme casuale: è sufficiente selezionare un sottoinsieme casuale di punti dal set di dati originale. Questo è il metodo più semplice per ottenere un coreset, ma non sempre fornisce la migliore qualità.
  • Punti di riferimento: selezionare i punti del dataset originale che hanno un grande impatto sulla previsione dell'algoritmo di apprendimento automatico. È un metodo più efficiente per ottenere un coreset rispetto a un sottoinsieme casuale, ma può essere più complesso.
  • Raggruppamento: raggruppare i punti del set di dati originale in base alle loro somiglianze. Selezionare un punto da ciascun gruppo come coreset. È un metodo efficiente per ottenere un sottoinsieme che rappresenti bene il set di dati originale, ma può essere più complesso.
  • Kernel emometrico: selezionare i punti dal set di dati di origine utilizzando il kernel emometrico. Si tratta di un metodo potente per ottenere un coreset che può essere utilizzato per migliorare la qualità degli algoritmi di apprendimento automatico.
  • Sottoinsieme casuale esteso: questo metodo seleziona punti casuali dal set di dati originale, ma con una maggiore probabilità seleziona i punti che hanno un elevato impatto sulla previsione dell'algoritmo di apprendimento automatico. Si tratta di un metodo efficiente per ottenere un sottoinsieme di buona qualità che può essere utilizzato per una serie di compiti di apprendimento automatico.

È importante notare che non esiste un metodo universale per ottenere un coreset adatto a tutti i compiti di apprendimento automatico. La scelta del metodo per ottenere il coreset dipende dal compito specifico e dalle risorse computazionali disponibili.

*Bardo

 
Maxim Dmitrievsky #:

I risultati dell'apprendimento attraverso il corsetto spesso non sono male

Dal 10° al 21° anno è stato trovato un corsetto con una frazione del 30% (il 30% della storia casuale di questo sito ha partecipato all'apprendimento), mentre i restanti anni sono stati generalmente dei puri OOS.

Nel terminale si presenta così


Ci sono anche periodi di drawdown che durano da sei mesi a un anno. Siete pronti per questo? Soprattutto se il drawdown inizia immediatamente al momento del lancio in tempo reale?

 
Forester #:

Ebbene, ci sono anche periodi di drawdown che durano da sei mesi a un anno. Siete pronti per questo? Soprattutto se il drawdown inizia immediatamente quando si inizia a investire?

Di solito si diversifica.

Questi grafici saranno redditizi anche su altri strumenti. E se la tendenza generale di tutti questi strumenti sarà la stessa del grafico presentato, la stabilità dell'investimento sarà garantita.

È sufficiente creare un portafoglio di strumenti che creino il maggior fattore di recupero.
 
Forester #:

Ebbene, ci sono anche periodi di drawdown che durano da sei mesi a un anno. Siete pronti per questo? Soprattutto se il drawdown inizia immediatamente quando si inizia a investire?

Non sono pronto a scommettere su 20 anni :) questo è più che altro un caso di studio.

Mi vanno bene 10 anni di formazione - 1 anno di OOS, bene.

Ma c'è molto rumore, a volte il modello butta via quasi tutti i campioni come inutili, rimangono 3 transazioni.

Ci sono anche pezzi di storia che non vengono mai previsti normalmente.

Tutto sommato, non è un'attività molto gratificante.

È come far girare il vecchio ricevitore e colpire accidentalmente qualche onda con del rumore.

 

Ancora una volta sono convinto che per fare previsioni sia necessario un modello.

Il modello elimina il superfluo (rumore) lasciando il necessario (segnale), se possibile amplificando il necessario (segnale), così come il modello è più deterministico, più ripetibile nei modelli....

come esempio.

prezzi alti-bassi di minutka.


Poi costruiamo la semplificazione più semplice del prezzo (creiamo un modello).

Poi rimuoviamo gli eccessi (miglioriamo il modello) con l'aiuto di un semplice algoritmo noto per la riduzione della dimensionalità, il modello è diventato più ripetibile.

e l'ultimo tocco forse decorativo.


Mi chiedo come verrà addestrato il MO su questi dati.

Questo è un campione di prova.

Confusion Matrix and Statistics

          Reference
Prediction    -1     1
        -1 24130  2780
        1   4478 23613
                                          
               Accuracy : 0.868           
                 95% CI : (0.8652, 0.8709)
    No Information Rate : 0.5201          
    P-Value [Acc > NIR] : < 2.2e-16       
                                          
                  Kappa : 0.7363          
                                          
 Mcnemar's Test P-Value : < 2.2e-16       
                                          
            Sensitivity : 0.8435          
            Specificity : 0.8947          
         Pos Pred Value : 0.8967          
         Neg Pred Value : 0.8406          
             Prevalence : 0.5201          
         Detection Rate : 0.4387          
   Detection Prevalence : 0.4893          
      Balanced Accuracy : 0.8691          
                                          
       'Positive' Class : -1  

Avete mai visto numeri del genere prima d'ora?




 
СанСаныч Фоменко #:

Qual è il nome esatto? O è fatto in casa?

Ho utilizzato diversi modelli "in legno" per molti anni e non ho mai visto nulla di simile.

Cosa intende per "fatto in casa"? C'è una giustificazione teorica, un buon articolo. Esiste un pacchetto chiamato RLTv3.2.6. Funziona bene. Dovresti prestare attenzione alla versione.

A proposito di ONNX per i modelli di legno in Python. Vedere il pacchetto skl2onnx.

Modelli scikit-learn supportati. L'ultimo set di opzioni supportato è il 15.

Buona fortuna

skl2onnx
  • 2023.05.09
  • pypi.org
Convert scikit-learn models to ONNX
 
E il principale autocostruttore è Breiman, perché non ha scritto in R. È un tale scribacchino.