L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1193

 
Maxim Dmitrievsky:

anche su mql5... Ma c'è un buon tester e una base qui :)

Ecco il problema, mi sto girando, stanco di leggere tutto quando ho tempo

Se lo scopo è quello di vendere il prodotto nel mercato, ahimè, allora tutto è in MQL, se lo scopo è l'uso personale o la distribuzione oltre questo forum, allora il problema viene alla possibilità di ottenere .dll e collegamento a MT

 
Igor Makanu:

Questo è il problema, io stesso sto girando, sono stanco di leggere tutto quando ho tempo

Devo definire gli obiettivi - pensare ad alta voce ))))), se lo scopo è un prodotto nel mercato, ahimè, poi tutti a MQL, se lo scopo di uso personale o distribuzione oltre questo forum, allora il compito si riduce alla capacità di ottenere .dll e il collegamento a MT

Lo userò come un eccellente bot MQL, tutto il resto è spazzatura. Se scrivi per il mercato, allora la promozione è più importante lì, non la performance commerciale, in più gli acquirenti stupidi ti faranno saltare la testa (avere esperienza). Ho esperienza. Puoi prendere quasi tutti gli indicatori o expert advisor dal codebase e venderli sul mercato... o metterne 200 come Gribachev, ogni giorno uno nuovo, ma questo non è il modo di samurai.

Devi mettere tua moglie o uno schiavo assunto al computer per comunicare con i clienti, ma non perderai tempo :)
 
Maxim Dmitrievsky:

L'obiettivo è un fantastico bot sul MO, il resto è una stronzata. Se scrivi per il mercato, lì la promozione è più importante della performance commerciale, in più i compratori stupidi ti fanno saltare la testa (ho avuto esperienza). Non ho nessun indicatore di base del codice o consigliere esperto, e li venderanno nel mercato... O puoi metterne 200 come Gribachev, ogni giorno uno nuovo, ma questo non è il modo di samurai.

Se hai intenzione di farlo, faresti meglio a mandare tua moglie o uno schiavo assunto per comunicare con gli acquirenti, visto che non ci perdi tempo :)

L'ho già previsto, quindi non credo che sia necessario "ansimare" e che qualcosa di utile da mettere nel mercato - non posso fornire supporto al prodotto, perché ci vorrà molto tempo, e roba immagazzinata lì, con la speranza che ci sia gente che vuole dare $ 30, come la coscienza non permette)))

ZS: griglie di ordini da un semplice indicatore... Funziona per sempre, per sempre (su o giù), ed è sempre richiesto dagli utenti ))))

 
Igor Makanu:

L'ho già previsto, quindi non penso che sia necessario "ansimare" e mettere qualcosa di utile sul mercato - non sarò in grado di sostenere il prodotto, perché ci vorrà molto tempo, e la roba conservata lì, sperando di trovare gente che vuole donare 30 dollari, non lo permetto)))

ZS: griglie di ordini da un semplice indicatore... Funzionerà sempre (su o giù) ed è sempre richiesto dagli utenti ))))

Martins, griglie sì... geek di tutti i tipi, è eterno :)

 

Mi è venuta un'idea: determinare il sovrallenamento per mezzo del MO. Continuo a scavare catbust, lì si può ottenere una previsione in termini probabilistici - ho sparso in gruppi da 0 a 9 probabilità - per facilità di percezione e ulteriore analisi - guardato distribuzioni, deviazione standard, curtosi, asimmetria, tra cui una ripartizione per obiettivo e distribuzione di errore, correttezza delle risposte in ogni gruppo. Ora tirerò diversi indicatori standard per valutare il modello, come AUC F1 e altri, lì si può vedere la dinamica di apprendimento, ma finora non so come descriverla meglio.

Ci sono due modelli nel grafico - gruppo di distribuzione * gruppo di classificazione corretta. Il modello blu è migliore sul campione d'esame.


Quali altri predittori puoi pensare per valutare il modello?

 
Aleksey Vyazmikin:

Mi è venuta un'idea: determinare il sovrallenamento per mezzo del MO . Continuo a scavare catbust, lì si può ottenere una previsione in termini probabilistici - ho sparso in gruppi da 0 a 9 probabilità - per facilità di percezione e ulteriore analisi - guardato distribuzioni, deviazione standard, curtosi, asimmetria, tra cui una ripartizione per obiettivo e distribuzione di errore, correttezza delle risposte in ogni gruppo. Ora tirerò diversi indicatori standard per valutare il modello, come AUC F1 e altri, lì si può vedere la dinamica di apprendimento, ma finora non so come descriverla meglio.

Ci sono due modelli nel grafico - gruppo di distribuzione * gruppo di classificazione corretta. Il modello blu è migliore sul campione d'esame.


Quali altri predittori puoi pensare per valutare il modello?

figo, questo è in realtà quello che stanno facendo tutti

le metriche sono usate per stimare il modello, non i predittori, quelli standard sono di solito sufficienti ma si possono inventare i propri

Di solito più grande è l'errore nella foresta più piccola è la diffusione (dispersione) dei valori, cioè solo rumore bianco intorno a 0,5, in questo senso la linea blu è peggiore di quella rossa
 
Maxim Dmitrievsky:

Ottimo, in realtà è quello che fanno tutti.

Le metriche sono usate per stimare un modello, non i predittori, quelli standard sono di solito sufficienti, ma si possono inventare i propri.

di solito più grande è l'errore nella foresta più piccola è la diffusione (dispersione) dei valori, cioè solo rumore bianco intorno a 0,5, in questo senso la linea blu è peggiore di quella rossa

Ah, quindi si tratta di trovare un criterio di stima, non solo di stimare con diverse formule di calcolo! Tutti questi approcci con formule valutano il modello stazionario, ma non dicono della sua capacità di continuare a lavorare ulteriormente, e questo è esattamente ciò che voglio ottenere, ecco perché genero predittori, in modo che sarebbe possibile trovare un modello da un insieme di indicatori diversi con l'aiuto di MO.

Riguardo alla dispersione - affermazione molto strana che hai fatto, forse tiene conto solo del fatto di trovare valori senza prendere in considerazione il loro valore di classificazione e la percentuale di risposte corrette. Sul grafico da zero a 5 sull'asse x è il prodotto di un gruppo di zeri e la loro corretta classificazione, e da 5 in poi è il prodotto delle unità.

Ecco un grafico di questi modelli, ma mostra la distribuzione dell'obiettivo "1"

come si può vedere, il modello rosso ha una percentuale di distribuzione spostata oltre il 5, il che significa che gli "uni" non hanno alcuna possibilità di essere classificati correttamente, e quelli che hanno una possibilità sono meno del modello blu - 23% e 28%, rispettivamente.

Ed ecco come cambia la fedeltà della classificazione

Naturalmente, è possibile utilizzare anche un tale modello appiattito, ma è necessario spostare la divisione di classificazione da 0,5 a 0,7 per esempio, ma non rimane molto materiale da elaborare, ma d'altra parte tali modelli appiattiti possono essere combinati...

 
Aleksey Vyazmikin:

Ah, quindi si tratta di trovare un criterio di stima, non solo di stimare con diverse formule di calcolo! Tutti questi approcci di formula valutano il modello stazionario, ma non ci dicono della sua capacità di continuare a lavorare, che è esattamente quello che voglio ottenere, che è il motivo per cui genero predittori, in modo da poter trovare un modello da un insieme di indicatori diversi per mezzo di MO.

Riguardo alla dispersione - affermazione molto strana che hai fatto, forse tiene conto solo del fatto di trovare valori senza prendere in considerazione il loro valore di classificazione e la percentuale di risposte corrette. Sul grafico da zero a 5 sull'asse x è il prodotto di un gruppo di zeri e la loro corretta classificazione, e da 5 in poi è il prodotto delle unità.

Ecco un grafico di questi modelli, ma mostra la distribuzione dell'obiettivo "1"

come si può vedere, il modello rosso ha una percentuale di distribuzione spostata oltre il 5, il che significa che "uno" non ha alcuna possibilità di classificazione corretta, e quelli che hanno una possibilità sono meno del modello blu - 23% e 28%, rispettivamente.

Ed ecco come cambia la fedeltà della classificazione

Naturalmente, possiamo usare anche un tale modello appiattito, ma è necessario spostare la divisione di classificazione da 0,5 a 0,7 per esempio, ma non rimane molto materiale da elaborare, ma d'altra parte tali modelli appiattiti possono essere combinati...

il fatto che sia di parte parla solo a favore di qualche classe, può essere in un mercato di tendenza, cioè un campione di apprendimento (approssimativamente).

E se si prende quella blu si ha una forte diminuzione delle probabilità, cioè se, idealmente, la probabilità di segnale dovrebbe essere 1, allora si ha 0,6-0,7 massimo, cioè entrambe le classi ruotano intorno a 0,5, con piccole deviazioni verso una o l'altra classe, infatti, c'è rumore, non segnali, o il modello è fortemente regolarizzato

capacità di continuare a lavorare su un campione di prova per errori... se si riesce ad avvicinarsi agli errori su una traccia, il modello è buono come regola

 
Maxim Dmitrievsky:

il fatto che sia distorto parla semplicemente a favore di qualche classe, potrebbe essere in un mercato di tendenza, cioè un campione di formazione (approssimativamente).

Stiamo confrontando il modello nelle stesse condizioni, ecco gli stessi modelli su altre unità di destinazione dei dati caduti sotto la classificazione 1 - 35% vs. 39%

fedeltà di classificazione

e poiché il gruppo di tutti i valori è più vicino al centro, otteniamo il prodotto

Maxim Dmitrievsky:

E se si prende il blu si ottiene una forte diminuzione delle probabilità, cioè se, idealmente, la probabilità del segnale dovrebbe essere 1, allora si ha 0,6-0,7 massimo, cioè entrambe le classi ruotano intorno a 0,5, con piccole deviazioni verso una o l'altra classe, infatti c'è rumore ma non segnali

capacità di continuare a lavorare su un campione di errori... se si riesce ad avvicinarsi agli errori su un vassoio, allora il modello è buono, di regola

Perché questa probabilità deve essere "1" - piuttosto è un eccesso di fiducia, al contrario penso che nel modello corretto (ideale) deve avere due gobbe tra 0,1 e 0,3 e 0,7 e 0,9 - perché indicherà la stabilità e l'adeguatezza, ma tali modelli non sono ancora osservati nei fatti.

Sull'approssimazione dei valori dei coefficienti stimati - sì, sono d'accordo - guarderò il delta e farò qualche altra misurazione sulla dinamica - a catbust si può vedere come i valori cambiano quando gli alberi vengono aggiunti al modello.
 
Aleksey Vyazmikin:

Confrontiamo il modello nelle stesse condizioni, qui ci sono gli stessi modelli su altre unità di destinazione dei dati caduti sotto la classificazione 1 - 35% vs 39%

fedeltà di classificazione

e poiché l'accumulo di tutti i valori è più vicino al centro, otteniamo il prodotto

Perché questa probabilità dovrebbe essere "1" - piuttosto è compiacenza, infatti penso che un modello corretto (ideale) dovrebbe avere due gobbe tra 0,2 e 0,4 e 0,7 e 0,9 - questo indicherebbe stabilità e adeguatezza ma non vedo ancora tali modelli nella realtà.

Sull'approssimazione dei valori dei coefficienti stimati - sì, sono d'accordo - guarderò il delta e farò qualche misura in più sulla dinamica - a catbust si può vedere come gli indicatori cambiano quando si aggiungono alberi al modello.

più alta è la probabilità dell'evento, più accurato è il segnale, in un certo senso viene anche dalla definizione :) 2 non ci sarà la gobba su dati rumorosi, e almeno perché ci saranno stati transitori, ma il modello dovrebbe almeno catturare i valori estremi in una certa misura, altrimenti non è mai sicuro degli ingressi