L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2569

 
mytarmailS #:
Chissà se esiste un test per il determinismo delle tendenze...
Bisogna sapere se si tratta davvero di una tendenza o di una fluttuazione casuale...

Forse lo stesso Hearst?


Test per diversi tipi di tendenze fuori dalla scatola

R migliore!!!!

C'è un buon pacchetto tendenze in R. Per una tendenza lineare, sens.slope() è buono da lì.

 
mytarmailS #:

Cosa c'è da capire della matematica finanziaria e dell'IR, bisogna conoscere la meccanica del mercato e i suoi attori

La folla è destinata a perdere nella maggior parte dei casi, perché il suo contro-agente è un "giocatore importante".

1) hanno bisogno di vedere uno squilibrio di acquirenti e venditori al dettaglio: se ci sono molti venditori, allora il "grande giocatore" (l'acquirente) è dall'altra parte dell'affare

Come ora sull'ebreo, per esempio, molti venditori

2) C'è anche il trading nel momento contro la folla, questo è un market maker

Si vede sempre che il prezzo si muove contro la folla (correlazione inversa).

Mentre la folla compra e crede nella crescita, il prezzo scenderà e viceversa...

Questo è tutto il mercato...


p.s. E guarderò sicuramente il video.

Ci sono problemi anche in questo, e non di poco conto. Abbiamo a disposizione solo una piccola fetta del mercato, che non si sa quanto sia rappresentativa e affidabile. La seconda immagine (sentimento generale) non serve a niente. In primo luogo, le inversioni si verificano regolarmente agli estremi dove sembrerebbe che la tendenza "contro la folla" avrebbe dovuto continuare. In secondo luogo, la sanzione ripete semplicemente il prezzo (al contrario e meno la tendenza) - invertite qualsiasi oscillatore e otterrete un quadro molto simile. Bene, se l'indicatore ripete il prezzo, significa che la sua previsione non è più facile del grafico del prezzo stesso, giusto? La prima immagine (il vetro e le posizioni aperte) e il valore del rapporto di profitto hanno più valore, ma è anche così... altamente discutibile.


 
Aleksey Nikolayev #:

Non fa molta differenza (da un punto di vista combinatorio) come è codificato esattamente. Il punto è lo stesso - ogni linea ha come caratteristiche quali regole sono applicate e quali no. È sempre 2^N varianti, dove N è il numero di regole. Dopo di che ognuna di queste regole sarà inclusa nell'insieme finale di 2^(2^N) varianti. È chiaro che è impossibile provare solo formalmente un numero così grande di varianti. Ecco perché ha senso organizzarli in modo ragionevole. Per esempio, prima prendiamo tutte le varianti descritte da una sola regola, poi tutte le varianti descritte da due sole regole e così via. O qualcosa del genere.

Forse non mi sto spiegando bene, ma voglio sottolineare ancora una volta che stiamo lavorando con il campione iniziale, che all'interno dell'algoritmo di apprendimento CatBoost è quantizzato una volta, cioè diciamo che abbiamo 1000 predittori, li abbiamo quantizzati ciascuno in 10 segmenti, come risultato abbiamo 10000 segmenti - inoltre l'algoritmo CatBoost tira a caso i predittori e correndo attraverso i bordi/quanti fa una divisione/scissione, per selezionare un quantum che è nel mezzo, ha bisogno di costruire 3 disuguaglianze o creare 8 foglie, dove 7 foglie diranno spazzatura e una foglia su informazioni preziose. Che l'algoritmo costruisca un tale albero non è nemmeno certo, poiché c'è un amore di casualità e un quantum vicino può entrare in una foglia. E che sia solo un albero. Nel mio metodo una disuguaglianza sarà sufficiente - 2 foglie. Anche se tutti i predittori sono utilizzati e ognuno ha 1 foglia utile, il numero di combinazioni nella creazione del modello sarà molto inferiore. Ma, cosa importante, ci sarà anche meno rumore, poiché non ci saranno tante partizioni di campioni errati da stabilizzare che è necessario costruire un nuovo albero (principio del boosting).

Aleksey Nikolayev # :

Prima o poi molti altri giocatori li troveranno, per esempio.

Allora forse si dovrebbe in qualche modo testare questa teoria? Secondo il quale c'è una frequenza minima di ricorrenza di un vantaggio, dopo la quale è più probabile che scompaia, piuttosto che continuare ad esistere?

Per esempio misuriamo ogni semestre, c'è un vantaggio di 1,5 anni - consideriamo che mezzo anno funzionerà, e se è già 2,5 anni non ha senso e prenderlo - la probabilità è più che smetta di funzionare.

Non sono bravo con le formule scientifiche, potete dirmi come fare questo calcolo e verificare l'ipotesi?

 
Aleksey Nikolayev #:

C'è un bel pacchetto di trend in R. Per un trend lineare, sens.slope() è buono da lì.

grazie

vladavd #:

Ci sono problemi anche in questo, e non pochi. Abbiamo solo una piccola fetta di mercato a nostra disposizione, che non sappiamo quanto sia indicativa e affidabile. La seconda immagine (sentimento generale) non è affatto utile. In primo luogo, le inversioni si verificano regolarmente agli estremi dove sembrerebbe che la tendenza "contro la folla" avrebbe dovuto continuare. In secondo luogo, la sanzione ripete semplicemente il prezzo (al contrario e meno la tendenza) - invertite qualsiasi oscillatore e otterrete un quadro molto simile. Bene, se l'indicatore ripete il prezzo, significa che la sua previsione non è più facile del grafico del prezzo stesso, giusto? La prima immagine (il vetro e le posizioni aperte) e il valore del rapporto di profitto hanno più valore, ma è anche così... altamente discutibile.

Ti perdi in un sacco di cose, sei troppo superficiale e hai una percezione poco ponderata delle informazioni.

 
Aleksey Vyazmikin #:

Forse non mi sto spiegando bene, ma voglio sottolineare di nuovo che stiamo lavorando con il campione originale, che all'interno dell'algoritmo di apprendimento CatBoost è quantizzato una volta, cioè diciamo che abbiamo 1000 predittori, li abbiamo quantizzati ciascuno in 10 segmenti, come risultato abbiamo 10000 segmenti - inoltre l'algoritmo CatBoost tira a caso i predittori e correndo attraverso i bordi/quanti fa una divisione/scissione, per selezionare un quantum che è nel mezzo, ha bisogno di costruire 3 disuguaglianze o creare 8 foglie, dove 7 foglie diranno spazzatura e una foglia su informazioni preziose. Che l'algoritmo costruisca un tale albero non è nemmeno certo, poiché c'è un amore di casualità e un quantum vicino può entrare in una foglia. E che sia solo un albero. Nel mio metodo una disuguaglianza sarà sufficiente - 2 foglie. Anche se tutti i predittori sono utilizzati e ognuno ha 1 foglia utile, il numero di combinazioni durante la creazione del modello sarà molto inferiore. Ma, cosa importante, ci sarà anche meno rumore, poiché non ci saranno tante partizioni di campioni errati da stabilizzare che è necessario costruire un nuovo albero (principio del boosting).

Forse dovresti descrivere il tuo approccio su un esempio di un singolo albero decisionale. Eppure, da solo, il boosting costruisce già una struttura abbastanza complessa - una sequenza ad albero di raffinazione. E cifai ancora qualcos'altro).

Aleksey Vyazmikin #:

Allora forse bisogna controllare questa teoria in qualche modo? Secondo il quale c'è una frequenza minima di ricorrenza del vantaggio, dopo il cui aumento c'è più probabilità della sua scomparsa che della continuazione della sua esistenza?

Per esempio misuriamo ogni mezzo anno, c'è un vantaggio di 1,5 anni - consideriamo che mezzo anno funzionerà ancora, e se è già 2,5 anni, non ha senso e prenderlo - la probabilità è maggiore che smetta di funzionare.

Non sono forte nelle formule scientifiche, potete dirmi come fare questo calcolo e verificare l'ipotesi?

Qualcosa come la formula della radioattività con l'emivita) Non credo che l'attività delle persone sia descritta da una formula così semplice) La tua "frequenza di vantaggio" cambierà, molto probabilmente in qualche modo molto imprevedibile.

 
Aleksey Nikolayev #:

Forse avresti dovuto esporre il tuo approccio usando un singolo albero decisionale come esempio. Tuttavia, il boosting stesso costruisce già una struttura abbastanza complessa - una sequenza di alberi di raffinazione. E cifai ancora qualcos'altro).

Sì, capisco che non è facile capire immediatamente il metodo. Ho intenzione di descriverlo più dettagliatamente. E i dati vengono elaborati prima di inviarli a CatBoost, ma voglio fare il mio algoritmo personale, che terrà conto delle dinamiche mutevoli del "decadimento", come lo hai chiamato tu, quando si divide.

Aleksey Nikolayev #:

Un po' come una formula di radioattività con l'emivita) Non credo che l'attività umana sia descritta da una formula così semplice) La tua "frequenza di vantaggio" è probabile che cambi in qualche modo altamente imprevedibile.

Potrebbe non esserci nulla, ma come si fa a controllare?

 
mytarmailS #:

grazie

Ti stai perdendo in un sacco di cose, troppo superficiale e sconsiderato per recepire queste informazioni.

Sì, è solo che ho lavorato con questo strumento per anni e non ci ho pensato affatto.

Su cosa esattamente non siete d'accordo?

 
Aleksey Vyazmikin #:

Sì, diciamo così.

No, ora prendiamo l'esecuzione della regola di disuguaglianza come una e guardiamo il valore medio del target (diciamo per la classificazione binaria) quando la regola viene attivata dal campione, se il valore medio iniziale è, diciamo, 0,45 nel campione, e dopo la valutazione solo dalle risposte è 0,51, allora consideriamo che il predittore (il suo grafico/quantum) ha un potere predittivo di 0,06, cioè il 6%.

Raccogliamo molti di questi predittori con sezioni, che sono già predittori binari indipendenti e li usiamo per costruire un modello.

Combinare tutti questi quanti con tutti (con o senza potere predittivo) non è effettivamente un compito rapido, ma può non essere irragionevole se viene fatto con un predittore di base sul quale viene identificato un quanto con potere predittivo.

Ma, anche in teoria, questa riqualificazione sarebbe minore, dato che ci sono meno combinazioni possibili che nel campione completo.

Quello che resta da capire è perché questi schemi quantici possono funzionare per 7 anni e poi improvvisamente fermarsi...

Ho capito bene cosa stai facendo?


1) Otteniamo 1 albero.
2) Ogni nodo può dare fino a 10 rami (nell'immagine abbiamo trovato meno, diciamo 10 rami), ogni ramo è generato da 1 quantum (un quantum è un pezzo di predittore in 10%: o percentile o 10% in ampiezza, dipende da quale metodo di quantizzazione è stato usato).
3) dopo la prima suddivisione, troviamo 3 quanti, che successivamente portano ad una foglia di successo
4) le successive suddivisioni trovano alcune altre buone suddivisioni/quanti che portano a foglie di successo
5) memorizziamo i quanti di successo prima delle foglie di successo
6) costruiamo un nuovo albero, che usa come predittori solo i quanti che abbiamo selezionato

Per farlo con lo stesso metodo con cui abbiamo quantizzato il primo albero, quantizziamo i predittori con il nostro script, otteniamo 1000 predittori su 100, sono già binari 0 o 1. Se il valore del predittore è in questo intervallo, esso = 1, altrimenti = 0.
Poiché selezioniamo solo percorsi/quanti di successo, tutti i valori dei quanti selezionati = 1. Se tutti i predittori = 1, allora il nuovo albero non può imparare. La risposta è già nota.

O non c'è più bisogno di costruire un nuovo albero? Se il valore del predittore rientra nel quantum selezionato, lo faremo immediatamente?

 
vladavd #:

Sì, ho lavorato con questo strumento per anni, quindi non ci ho pensato affatto.

In disaccordo con cosa, esattamente?

Con quale strumento esattamente?

 
mytarmailS #:

con che tipo di strumento?

Beh, cosa c'è nella foto? Il vetro e la sanzione.