L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3124

 
Renat Akhtyamov #:

Cosa?

scrivere poesie e libri

entrare nel vivo.

È la tua passione e probabilmente è più redditizia.

Puoi andare su YouTube se sei così stupido.
 
Maxim Dmitrievsky #:
Il modello è distorto. Dobbiamo quindi forzarlo ad apprendere senza tale distorsione. Ma prima dobbiamo trovare i coefficienti di distorsione, diciamo che si tratta di una pendenza o di un termine libero (intercetta), come nella regressione. E se facessimo in modo che l'addestramento avvenga in modo tale che questo termine non vari in base a traine e OOS? In pratica sto citando i libri su kozulu.

In catbusta e in altri modelli, è possibile assegnare pesi alle etichette durante l'addestramento. Ad esempio, l'offset viene emesso, quindi convertito in pesi e il modello viene addestrato con i fattori di correzione già presenti nelle traine. Questo è uno dei modi.

Supponiamo che ci sia una tendenza globale al rialzo per 3 mesi. Il prezzo è cresciuto del 7%. Allo stesso tempo si verificano variazioni fino al 2% in entrambe le direzioni nel corso di una giornata.
Quale peso si deve attribuire ai tornei H1 della 1a barra, della 2a barra ..... 100 bar? E al resto delle schede. Dubito che esistano formule scientificamente (o almeno sperimentalmente) giustificate.
Dare centinaia di pesi renderà ancora più difficile la ricerca di un modello adatto. Ci sono già molti iperparametri.

 
Forester #:

Supponiamo che ci sia stata una tendenza globale al rialzo per 3 mesi. Il prezzo è cresciuto del 7%. Allo stesso tempo, ci sono variazioni fino al 2% in entrambe le direzioni al giorno.
Che peso dare ai rendimenti H1 della 1a barra, 2a barra .... 100 barra? E al resto delle schede. Dubito che esistano formule scientificamente (o almeno sperimentalmente) giustificate.
Dare centinaia di pesi renderà ancora più difficile la ricerca di un modello adatto. Esiste già un mare di iperparametri.

Quando non c'è una chiara certezza di causa ed effetto, solo attraverso esperimenti randomizzati. Non è super affidabile, ma non c'è altro modo.

Esiste una formula di Frisch-Wu-Lovell scientificamente valida. A quanto pare non ha letto quel libro.

Certo, si può continuare in termini di: è rimbalzato da questo livello, è saltato sotto questa curva, e al telegiornale tutto è stato messo di nuovo al tappeto... ma nessuno ha dimostrato l'utilità di una formula del genere. Se giochiamo con la casualità, allora dovremmo giocare con il gusto.
 
Maxim Dmitrievsky #:
Quando non c'è una chiara certezza di causa ed effetto,

Diversi tick predicono già la direzione futura del prezzo.

Naturalmente, non è possibile vedere questo sulla barra oraria o giornaliera.

Ecco un suggerimento.

In linea di principio, non si dovrebbe.

 
Uladzimir Izerski #:

E in linea di principio non si dovrebbe.

+
 
Forester #:
Il modello di vendita inizia a cedere quando la tendenza globale (solo 1-1,5 anni) è al rialzo. Trova l'opportunità di guadagnare sul trade, ma sull'OOS va in drawdown.
Forse la prima variante con selezione buy|sell da parte di un modello sarà migliore. Ma se si adegua al trend globale, si svuoterà nei momenti di cambiamento del trend. E probabilmente farà trading in un'unica direzione per anni.

Il principale segno di sovrallenamento del modello è una divergenza tra TRAIN e OOS. Se c'è una tale discrepanza, allora tutto dovrebbe essere buttato via, tutto è vuoto, l'intero viaggio è falso.

 
СанСаныч Фоменко #:

Il segno principale del sovrallenamento del modello è una divergenza tra la traccia e l'OOS. Se c'è questa discrepanza, allora tutto deve essere scartato, tutto è vuoto, l'intera escursione è falsa.

Informazioni obsolete.

Dite meglio cosa fate con mahalanobis, noi giriamo.
 
Maxim Dmitrievsky #:

informazioni obsolete.

Ditemi cosa state facendo con mahalanobis, facciamo un giro.

Informazioni obsolete ( Il principale segno diriqualificazione del modello è una divergenza su traine e OOS).

Certo che è obsoleta. Ho il sospetto che, se applicato, tutto quello che fate dovrà buttare via tutto il vostro p-squared per raggiungere un equilibrio mitico.


Ditemi meglio cosa fate con mahalanobis e ci faremo un giro.

Non lo faccio.

In R, il pacchetto fastmatrix::Mahalanobis(x, centro, cov, inverted = FALSE) conta la distanza euclidea tra vettori.

Perché ne abbiamo bisogno?

Abbiamo bisogno del potere predittivo del predittore, cioè della capacità di prevedere classi diverse e nel futuro, in modo che le fluttuazioni del potere predittivo siano minime, almeno entro il 10%. Per questo motivo utilizzo un approccio diverso e ho pubblicato i risultati dei calcoli una volta.

 
СанСаныч Фоменко #:

informazioni obsolete ( il segno principale dellariqualificazione del modello è una discrepanza tra le traine e gli OOS).

Certo che è obsoleta. Sospetto che, se applicata, non si faccia altro che buttare via tutti i p-squared per raggiungere un equilibrio mitico.


Diteci cosa state facendo con mahalanobis, ci faremo un giro.

Io non lo faccio.

Nel pacchetto R fastmatrix::Mahalanobis(x, centro, cov, inverted = FALSE) conta la distanza euclidea tra vettori.

Perché ne abbiamo bisogno?

Abbiamo bisogno del potere predittivo del predittore, cioè della capacità di prevedere classi diverse e nel futuro, in modo che le fluttuazioni del potere predittivo siano minime, almeno entro il 10%. Per questo motivo utilizzo un approccio diverso, e una volta ho pubblicato i risultati dei calcoli.

E perché abbiamo bisogno delle tue incognite, che senso ha scriverne?
 
Maxim Dmitrievsky #:
mahalanobis

Hai chiesto di mahalanobis, ti ho risposto, e non solo, ma ho scritto il motivo per cui non lo uso.