L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1302

 
Maxim Dmitrievsky:

La cosa che mi piace di più è il gran numero di "predittori". Da dove sarebbe venuto nelle citazioni, in primo luogo? È al 90% spazzatura.

Ognuno descrive la propria illusione in modi diversi, e l'illusione di chi ha molti soldi in quel momento funziona. Ecco perché in realtà, ci possono essere molti predittori, non vedo alcuna contraddizione qui, è come i cespugli composti da rami e foglie, ma qualcuno può tagliarli a diverse figure intricate che causano diverse reazioni dei contemplatori.

 
Aleksey Vyazmikin:

Ognuno descrive la propria illusione in modi diversi, e l'illusione di chi ha molti soldi in quel momento funziona. Quindi, in realtà, ci possono essere molti predittori, non vedo alcuna contraddizione qui, è come gli arbusti composti da rami e foglie, ma a qualcuno viene in mente di tagliarli a diverse figure intricate, causando una reazione diversa da parte dei contemplatori.

Beh, a ciascuno il suo, io sono alle prese con tale scrupolo, in ogni caso, la regolazione così com'è, la cosa principale che funzionerebbe per un po

si scopre che se si trova una combinazione ottimale di ingressi/uscite allora 4 predittori sono sufficienti

in breve, è necessario un compromesso tra efficienza e tempo

 
Maxim Dmitrievsky:

Da qualsiasi parte si scavi, si trovano "schemi" illusori ovunque, e si possono trovare in qualsiasi fenomeno

Ciò che mi rende più felice è il gran numero di "predittori". Da dove viene nelle citazioni? È al 90% spazzatura.

Esattamente, è spazzatura. E ogni indicatore preso separatamente dà circa il 50/50, e, inoltre, ha una gamma operativa molto stretta - in quei posti dove le sue letture hanno davvero senso.

Ma presi insieme... Essi limitano già l'area di applicabilità di altri indicatori, definendo una certa area dello spazio N-dimensionale, in cui le loro letture congiunte hanno senso. Credo che si chiami una parola di moda - sinergia).

Per come la vedo io, sono necessari 7-8 indicatori-predittori per farlo funzionare. L'unico problema è che non dovrebbero misurare la stessa cosa).

 
Maxim Dmitrievsky:

Beh, a ciascuno il suo, mi preoccupa questa scrupolosità, in ogni caso, l'importante è che funzioni per qualche tempo

si scopre che se si trova una combinazione ottimale di ingressi/uscite, anche 4 predittori sono sufficienti

in breve, è necessario un compromesso tra efficienza e consumo di tempo

Questo è il punto, l'importante è farlo funzionare...

Eppure, come si è scoperto:

1. il modello grande sarà sovrallenato a causa dell'effetto memoria

2. Meglio la regola (foglia/albero binario) ha lavorato sulla storia, meno possibilità ha in produzione

Altrimenti si otterrà un tale grafico con un'alta precisione e un alto ritorno sulla storia

e sul campione d'esame (disponibile sul grafico) per l'anno 1000 profitto solo (e il drawdown dei fondi è circa lo stesso), e la precisione scende al 58%.

I test sono stati fatti con attivazione split 1/0 a "probabilità" 0.6, e a probabilità 0.5 il profitto è di circa 5000 sul periodo fuori studio, ma sul periodo di test circa 57 e il grafico cammina di più, ha meno precisione.

Significa che le letture extra buone al periodo di formazione sono la garanzia di riqualificazione?

 
Aleksey Vyazmikin:

ma sul periodo di prova nella regione del 57

Questo significa che una lettura extra buona sul periodo di allenamento è una garanzia di sovrallenamento?

La precisione del 57% sul test è molto buona, anche troppo buona, ma sì, più c'è differenza tra i risultati sul filo e sul test, maggiore è la probabilità di overfitting.

 
Il graal:

La precisione del 57% sul test è molto buona, anche troppo buona, ma sì, più sono diversi i risultati sul firn e sul test, più è probabile che tu sia in sovralimentazione.

Quindi presumo che il futuro sia incerto, e nessuno può dirmi che farai bene su un campione al di fuori dell'allenamento... Ecco perché sto cercando un qualche tipo di collegamento.

E per quanto riguarda l'accuratezza (non è Accuracy, perché non tiene conto delle entrate mancate, quelle che sono classificate 0 quando avrebbero dovuto essere 1), non è così semplice, perché il profitto non è uguale alla perdita - può essere un profitto maggiore e può essere viceversa. Si scopre che sì, il modello sembra funzionare, ma non porta profitto.

 
Aleksey Vyazmikin:

Questo è il punto, l'importante è farlo funzionare...

Eppure, finora si è scoperto che:

1. il modello grande sarà sovrallenato a causa dell'effetto memoria

2. Meglio la regola (foglia/albero binario) ha lavorato sulla storia, meno possibilità ha in produzione

Altrimenti si otterrà un tale grafico con un'alta precisione e un alto ritorno sulla storia

e sul campione d'esame (disponibile sul grafico) per l'anno 1000 profitto solo (e il drawdown dei fondi è circa lo stesso), e la precisione scende al 58%.

I test sono stati fatti con attivazione split 1/0 a "probabilità" 0.6 e a probabilità 0.5 il profitto è di circa 5000 sul periodo fuori studio, ma sul periodo di test circa 57 e il grafico cammina di più, ha meno precisione.

Questo significa che una lettura super buona del periodo di allenamento è una garanzia di sovrallenamento?

Come regola, sì.

più segni, più sovrallenamento
 
Graal:

La precisione del 57% sul test è molto buona, anche troppo buona, ma sì, più i risultati differiscono sul firn e sul test, più alta è la probabilità di overfitting.

alcune persone pensano che anche Random sia buono, impazzite )) Random+7% nerendom è male, ma è meglio di Random

No, non è male, è disgustoso, non è affatto un modello.

tutti imparano le basi del machine learning e terver urgentemente

In particolare, se il grafico si ferma al 57%, allora si può considerare immediatamente come sovrallenamento, a priori, e non analizzare più nulla.
 
Maxim Dmitrievsky:

alcune persone pensano che anche i randoms siano buoni, impazzite )) randoms+7% nerandom è male, ma un po' meglio dei randoms

no non è male... è disgustoso, non è affatto un modello

tutti imparano le basi del machine learning e terver urgentemente.

Qual è l'accuratezza dei vostri modelli ora al di fuori dell'allenamento? E con quale periodo, come cade (cambia)?

Ho un periodo fuori dall'allenamento di 10 mesi.

 
Aleksey Vyazmikin:

Qual è l'accuratezza dei vostri modelli ora al di là dell'apprendimento? E con quale periodo di tempo, come scende (cambia) questa cifra?

Ho un periodo di riposo di 10 mesi.

10% di errore per test e traccia per ~10k esempi, aumenta dolcemente con l'aumento

a questo errore, i modelli hanno iniziato a lavorare su nuovi dati

è diverso sulla convalida, devo cercare di capire le opzioni

Non rivelare più gli algoritmi, solo comunicare